Wissen ist ein Privileg.                    Die Weitergabe eine Pflicht. 

 

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Autor

Dirk Freyling unabhängiger Forscher & Künstler

[Künstlername AlexD,

daher auch adf als Autorenkürzel]

contact adf

data protection info

[BASISSUCHE  AlexDirkFreyling 59ndf  Foto von T.B.]

 

 

Worum geht es?

Um einen nachhaltigen Paradigmenwechsel.

Was ist hier mit Paradigmenwechsel gemeint?

Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik.

[SM] Standardmodell der (Elementar)-Teilchenphysik (SM)

[ΛCDM] Kosmologisches Standardmodell (ΛCDM-Modell)

Was tritt an deren Stelle?

Ein deutlich anschaulicheres, effektiveres, interdisziplinär vermittelbares,  mathematisch einfacheres Denkmodell[EKT], welches vereinheitlichend und skalenübergreifend Mikro- und Makro-Kosmos voraussagefähig beschreibt.

[EKT] Die Elementarkörpertheorie (kurz EKT) befasst sich insbesondere mit Antworten auf die Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen. Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig. 

 

Welche Argumente sprechen für diesen Paradigmenwechsel?

Das Parsimonieprinzip

[: Ockhams Rasiermesser     lex parsimoniae    Sparsamkeitsprinzip]

Die streng analytisch motivierte Verwendung

des Prinzips der Parsimonie

in den vorliegenden Ausführungen

              

Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden.

Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft. Des Weiteren ist das Denkmodell am geeignetsten, welches neben der verwendeten Mathematik phänomenologisch erfassbar und konsistent, sowohl (skalenübergreifend) den Mikro- als auch den Makro-Kosmos, beschreiben kann, sowie einen formalen und phänomenologisch begründbaren Zusammenhang zwischen Licht (genauer PhotonenPh) und Materie erfasst.

[Ph] Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Albert Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais  "’Raffiniert ist der Herrgott’… Albert Einstein  Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413].

 

Wer bin ich fachlich in Richtung Theoretische Denkmodellphysik blickend?

 

zum "Abbildungsverständnis" (Wiedererkennung) bezüglich meiner Kopfhaut-Hornfäden, erst blonde kurze, folgend lange blonde, dann schwarzgefärbte lange, blonde, aktuell blonde, teilweise graue kurze...

Fragmentarisches in Kurzform zum „allgemeinen Verständnis“ zur Person  in 1964, Duisburg als Dirk Kurt Freyling geboren. Ich bin gelernter Chemielaborant und habe kurzzeitig in meinem Ausbildungsbetrieb (chemische Industrie, Analytik, Qualitätskontrolle) nach der Ausbildung als Wechselschichtlaborant gearbeitet, später während des Physikstudiums als Zeitarbeiter für diverse Firmen als Chemielaborant um mein Leben als Student zu finanzieren, sowie als studentische Hilfskraft im Bereich der Didaktik der Physik. Mein Physik-Diplom-Nebenfachprüfungsthema war im Bereich der Metallorganischen Chemie angesiedelt.

Arbeitstechnisch gesehen, der Vollständigkeit halber erwähnt, ich habe auch kurzzeitig für einen sehr engagierten finanziell erfolgreichen »Workaholic« im Strukturbetrieb gearbeitet und im Rahmen von „Kalt-Akquise“ „Klinken geputzt“ und kapitalbildende Lebens-Versicherungen für die Altersvorsorge und Immobilienfinanzierungen verkauft… Ohne hier auf irgendwelche (teils durchaus amüsante) Details einzugehen. Das fand ich trotz meines wirtschaftlichen Erfolges letztendlich nicht interessant (genug). Somit war es nur eine relativ kurze Arbeitsepisode in meinem Leben.

 

Danach folgten für eine lange Zeit (… mehr als 20 Jahre) andere Themen, die mein Leben „bestimmten“, insbesondere Kunst und Erotik. An diesen Aktivitäten schätz(t)e ich insbesondere den daraus resultierenden Zeitreichtum, der es mir gestattete und mir nach wie vor gestattet, mich intensiv mit Dingen zu beschäftigen, die mich interessieren.

 

«out of the box»

2012 stieß ich online auf die Protonenradius-Meßergebnisse von 2010 (siehe exemplarisch »The size of the proton«, Randolph Pohl et al.), die einen um ~ 4,4% kleineren Radius als den bis dahin etablierten Wert ergaben. Das erinnerte mich an meine eigenen theoretischen Ausführungen während meines Physikstudiums aus dem Jahr 1986. Ich hatte mich damals nicht weiter damit intensiver beschäftigt, da eine Abweichung von 4,4% im Rahmen von physikalischen Meßwerten im Mikrokosmosbereich Welten bedeuten. Ich lag damals mit meinen Berechnungs-Überlegungen im Hinblick auf den Literaturwert für den Protonenradius weit außerhalb des Erträglichen für einen Denkmodellanspruch meinerseits. In Wirklichkeit traf ich jedoch schon damals, wie man so „schön“ sagt, „den Nagel auf dem Kopf“, „ich lag goldrichtig“.

 

Elementarkörpertheorie

Ein fundamentales Ergebnis der Masse-Raum Kopplung  ist, das das Produkt aus der [Ruhe-]Masse m0 und dem [maximalen] Radius r0 eines «[Elementar-]Körpers» konstant ist und durch die Masse-Radius-Konstanten-Gleichung [F1] beschrieben wird.

                                                                        [F1]:  Masse-Radius-Konstanten-Gleichung

                                                                     h: Planck'sche Wirkungsquantum   c: Lichtgeschwindigkeit

    Für m0 = mp folgt somit für r0 einfachst, exakt berechnet rp : Protonenradius

Meine phänomenologisch begründete, formal einfache, exakte Voraussage des Protonenradius aus dem Jahr 1986 im Bild der Elementarkörpertheorie erzeugte 2012 bei mir große Freude und war der Auftakt zu intensiver Denkmodell basierender Forschung. Von da an beschäftig(t)e ich mich intensiv mit den wissenschaftlichen, historischen sowie „sozialen“ Aspekten der Theoriefindung im Bereich der Theoretischen Grundlagenphysik. Daraus resultierten im wahrsten Sinne des Wortes maßgebende, phänomenologisch begründete, formal-analytisch einfachste Berechnungsmöglichkeiten für charakteristische mikro- und makroskopische Größen.

 

QED und QCD zum Protonenradius

Im Rahmen von quantenfeldtheoretischen Betrachtungen (Stichworte QFT...QM...QED) respektive im Rahmen des Standardmodells der Elementarteilchenphysik lässt sich der Protonenradius nicht berechnen. Was "dort" an vermeintlichen Berechnungsmöglichkeiten, übrigens auch zur Protonenmasse, in der Literatur zu finden ist, basiert - "verkürzt gesagt" - auf Gittereich(feld)theorie-Simulationen. Das sind rein iterative Verfahren, die nach sehr langen Rechenzeiten mittels Cluster-Computersystemen selbstprophetisch bekannte Meßwerte im Ergebnis grob "simulieren".  

 

Vorweg, vorausschauend „am Rande bemerkt“...

Lange kämpften die Physiker, die in Elektron-Proton-Streuexperimenten einen um ~ 4% größeren Protonenradius vermeintlich meßtechnisch ermittelt hatten, gegen das »Team Randolf Pohl & Co«, die wiederholt den kleineren Protonenradius am myonischen Wasserstoff und später auch am regulären Wasserstoff bestätigt gemessen hatten.

 

Es stellte sich heraus, das die »Kämpfer auf verlorenen Posten« lange Zeit ignorierten, das der Meßfehler in ihren Streuexperimenten so groß war, dass der kleinere Protonenradius-Meßwert bereits darin enthalten war.

 

Elementarkörpertheorie (EKT) exakt berechneter Radius des Protons in fm

Diese kleine Versuchs-Interpretationsgeschichte ist ein Wink mit dem Zaunpfahl, wie später wiederholt aufgezeigt wird, dass einmal etablierte Versuchsinterpretationen nur ungern von den Standardmodellprotagonisten revidiert werden.[EPM]

_______________________________________________________

[EPM] Explizit bemerkt: Bringt man ältere Messungen der Elektron-Proton-Streuung konkret  ins “Spiel”, so wurden bereits 1997 Protonenradius-Werte (»dispersion fit«, 1996, … high energy part 0.832(12) fm, page 14…) „diskutiert“, die mit den spektroskopisch ermittelten Werten für myonischen und regulären Wasserstoff gut übereinstimmen. Auch bzw. bereits Robert Hofstadter ermittelte 1958(!) einen mit der Elementarkörpertheorie "verträglichen" Wert des Protonenradius, …Electron-Proton-Scattering   Hofstadter et al 1958   rp = 0,80 +/- 0,04 fm

_______________________________________________________

 

Geschichtliches zum Protonenmasse inhärenten Protonenradius

Es gab eine (vermutlich wenig beachtete) Bemerkung von Wolfgang Finkelnburg aus dem Jahre 1947 mit der Überschrift „Über das Maß von Kernentfernungen und eine merkwürdige Beziehung zwischen den Grundkonstanten der Physik“ siehe: Finkelnburg 1947 Hinweis

 

Eine Bemerkung von Prof. Dürr über die fundamentale Natur des Protons

Was dafür spricht, dass das Proton tatsächlich fundamental ist, ist eine spezielle Koinzidenz, auf die der Physiker Hans-Peter Dürr in seinem Aufsatz  »Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? (1986)« aufmerksam gemacht hat. Er weist daraufhin, dass die Vorstellung einer Teilchenunterstruktur mit Erreichen einer charakteristischen Schranke versagt.

Diese charakteristische Schranke ergibt sich aus dem Verhältnis zwischen dem Planck’schen Wirkungsquantum und der Lichtgeschwindigkeit. Die sich daraus ergebende Größe hat die Dimension einer Masse mal einer Länge. Dürr zufolge versagt für Systeme, für die das Produkt aus ihrer Masse m und ihrer Größe R diese Maßzahl unterschreitet, die Vorstellung einer Teilchenstruktur: mR  << h/c » 10-37 g cm.

Wie Dürr betont, ist dies zum ersten Mal der Fall bei einem Proton, denn mit dem Proton ist gerade diese Grenze erreicht: R » 10-13 cm, m = 1.7 x 10-24g, woraus sich für mR » 10-37 g cm ergibt.

Dürr nimmt diese auffällige Koinzidenz zum Anlass, das Quark-Modell zu kritisieren. Es kommt ihm, wie er betont, reichlich merkwürdig vor, dass sich  die Natur,  um unserem Teilchenbild entgegenzukommen, auf ihren tieferen Ebenen in eine so spezielle Dynamik wie die Quantenchromodynamik flüchtet. Es erscheint ihm viel überzeugender, dass die Quarkstruktur wie auch eine Subquarkstruktur nur die Funktion einer effektiven Beschreibung im Sinne der Quasiteilchensprache der Mehrkörperphysik hat.

Quelle: DürrHans-Peter, Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? in: Selbstorganisation – Die Entstehung von Ordnung in Natur und Gesellschaft, (hrsg. Andreas Dress, Hubert Hendrichs und Günter Küppers, München 1986, S. 15 – 34)

Hans-Peter Dürr (1929 - 2014) war u.a. Mitarbeiter von Werner Heisenberg und Direktor des Max Planck Institutes für Physik bis 1997.

 

Weiterführend

Michaele Suisse und Peter Cameron schreiben in Quantum Interpretation of the Proton Anomalous Magnetic Moment interessanterweise folgendes …

Die Rolle des anomalen Moments in der geometrischen Clifford-Algebra der topologischen Massenerzeugung des Protons legt nahe, dass die Anomalie keine intrinsische Eigenschaft des Protons im freien Raum ist, sondern vielmehr ein topologischer Effekt der Anwendung des elektromagnetischen Vorspannungsfeldes, das zur Definition der durch die Messung des magnetischen Moments ermittelten Eigenzustände erforderlich ist.“ [Februar 2017]

Der, im Vergleich zu der Elementarkörpertheorie, grundverschiedene Ansatz von Michaele Suisse und Peter Cameron kommt (also auch) zu dem Ergebnis, dass das magnetische Moment des Protons nicht intrinsisch ist. 

Das ist extrem bemerkenswert. Denn, wie noch ausführlich dargelegt wird, kollabiert im Rahmen der Elementarkörpertheorie der Standardmodellansatz Quarks basierender Protonen gemäß dem Prinzip der Parsimonie. Das anomale magnetische Moment des Protons läßt sich Masse-Radius gekoppelt einfachst berechnen.

 

 

Was mich seit Wiedereintritt in das Erkenntnis-Gebäude der Theoretischen Grundlagenphysik, beginnend Februar 2012, wirklich "aufgehalten hat" und nach wie vor, immer wieder punktuell, sehr zeitraubend ist, war herauszufinden bzw. ist herauszufinden, wieso die Protagonisten und Verkünder der Standardmodellphysik all diesen offensichtlich widersprüchlichen Konzepten folgten und folgen, die Beliebigkeit und Nichtnachweis zur "Norm" erklär(t)en. Es drängt(e) sich der Verdacht auf, dass insbesondere die Protagonisten der jüngsten Generation von Theoretischen Standardmodellphysikern ausschließlich im praktizierten (mathematisch-abstrakten) Formalismus verankert sind. Um jedoch die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören jedoch seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert.

 

Ein Vergleich

Denkmodellchemie und Denkmodellphysik

Erst einmal, gemäß meiner eigenen, authentischen Erfahrungen und Beobachtungen sind universitäre, praktische Veranstaltungen im Bereich Chemie nicht mit einer betrieblichen Ausbildung und nicht mit einem betrieblichen Alltag zu vergleichen. Sowohl für den Physik- als auch für den Chemie-Sektor gilt, dass die meisten Lehrer und viele akademisch Ausgebildete, wie auch Ärzte, in ihrem Berufsalltag keine Forscher sind. Angewandte Physik ist ähnlich wie Chemie. Der Versuch macht klug. Der Unterschied zwischen Chemie und Physik besteht darin, dass in der Chemie selbst der Erfolg der Theoretischen Chemie meist praktisch-konstruktiv ist, da Anwendungen folgen (Verfahrenstechnik, Produkte). In der Theoretischen Grundlagen-Physik (insbesondere Standardmodell der Kosmologie [ΛCDM-Modell] und Standardmodell der Elementarteilchenphysik [SM]) gibt es keine Anwendungen. Theoriefindung und Theorieerweiterung bleiben reine Spekulation.

Die Didaktik der Chemie sehe ich in der Oberstufe oder im Grundstudium als wenig problematisch an, da die vermittelten „einfachen“ Modelle praktisch gesehen zu guten Näherungen führen. In der Physik sieht das anders aus. Dort werden bereits (Ober-)Schülern vereinfachte Konzepte und Theorieelemente „verkauft“, die bei genauer Sicht philosophischen und nicht physikalischen Denkmodellen entspringen. Letztendlich definiert sich die Theoretische Physik durch den Glauben an eine gestalterische Mathematik und postulierten nicht direkt nachweisbaren Theorieobjekten und Wechselwirkungen, sowie einer großen Anzahl freier Parameter. Und wie gesagt, das ist nur möglich, weil keine Anwendungen folgen (müssen). Für die Wissensvermittlung werden Lehrer und Hochschul-Dozenten im Rahmen der gängigen Standardmodelle „gezwungen“ (sein), diese auch zu vermitteln. Persönliche Ansichten sind sozusagen „lehrbehördlich“ nicht gewünscht, wenn diese signifikant von der gängigen Methode oder/und von etablierten Denkmodellen abweichen.

 

 

«Interdisziplinäres Umfeld»

Angewandte Soziologie statt wissenschaftlicher Argumentation

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik “studiert”, wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und, wenn nötig, neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie “erledigten”. Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird “gnadenlos” erweitert und “spezialisiert”. Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, etc. werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als “unphysikalisch” deklariert, schlicht “weggelassen”. Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker ergebnisorientiert egal.

Inhalts-analytisch folgt daraus die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und (wie später ausführlich erörtert wird) das Standardmodell der Kosmologie (ΛCDM-Modell), sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) bei genauer Sicht keinerlei rational logischer Kritik standhalten, wie noch ausführlich, im Rahmen der vorliegenden Standardmodell-Bestandsaufnahmen an zahlreichen Beispielen, argumentativ begründet nachgewiesen wird.

Einzig das »soziologisch erprobte Argument«, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese auf Grund immenser innerer Widersprüche bedeutungslos wären, wird „argumentativ“ zum finalen Schlag ins Felde geführt. 

Da diese Standardmodelle das wissenschaftlich und populärwissenschaftlich propagierte Non plus ultra der Theoretischen Denkmodell-Physik sind, brauchen wir uns nicht zu wundern, dass wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant, dekadent, sinnfrei und folgenlos widersprüchlich die »Protagonisten des Standards« in ihren Arbeiten mit Apologeten, Fans, Kritikern und sich selbst umgehen, haben sie eindrucksvoll mit folgender »Erkenntnis-Pathologie« bewiesen: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus" der masselose Neutrinos fordert.  2015 gab es einen Nobelpreis für den (angeblichen) Nachweis von Neutrino-Oszillationen, die Neutrinomassen benötigen.

Zum Verständnis: Im Rahmen des Standardmodells gehören Neutrinos zu den Leptonen und sind als exakt masselose Fermionen definiert. Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben

In Anbetracht der dokumentierten, mit dem Nobelpreis gewürdigtenSchizophrenie wäre es u.a. keine schlechte Idee, die »Macher« und »Entscheider« psychologisch, psychiatrisch, neurologisch untersuchen zu lassen.

 

Warum nehmen Menschen generell solch' widersprüchlichen Schwachsinn hin?

Heutiges hysterisches, getriggertes Denken, Wünschen und Handeln der Massen ist nicht neu: Der Psychologe Solomon Asch (1907 - 1996) bemerkte aufgrund seiner Versuche, „Für die meisten Menschen hat die Anpassung an das, was andere sagen und tun – egal wie objektiv falsch oder absurd es ist –Vorrang vor der Anpassung an die Realität und der Entdeckung der Wahrheit.“

Wesenszüge der Masse nach Gustave Le Bon (1841 - 1931):

Eine Masse ist grundsätzlich impulsiv, beweglich, irritierbar, suggestibel, leichtgläubig, besessen von schlichten Ideen, intolerant und diktatorisch. Der Geist der Massen ist konservativ („Konservativismus der Masse“). Leichtgläubig gegenüber alten, skeptisch gegenüber neuen Ideen und Idealen. Es existiert eine spezifische »Religiosität der Massen«, die die Religiosität einzelner Individuen außerhalb der Masse bei weitem übertrifft. Das Individuum kann in der Masse in moralische Höhen aufsteigen oder in Tiefen hinabsinken (meist Letzteres). Es existiert eine allen Massenbestandteilen eigene „Massenseele“. Die Masse denkt nicht logisch, sondern in Bildern, die häufig durch einfache Sprachsymbolik hervorgerufen werden. Die Masse ist nur wenig kreativ und vermindert intelligent. Sie denkt einseitig grob und undifferenziert. Die Masse ist leicht erregbar, leichtgläubig und sprunghaft. Ihre Emotionalität ist schlicht.

Das hier bewusst inszenierte, extrem unwissenschaftliche und übergeordnet a-soziale Verhalten der Standardmodell-Protagonisten und "im Anschluss" der »servilen Verkünder populärwissenschaftlicher Publikationen«, des im Aussage-Ergebnis interdisziplinär leicht verstehbaren »Standardmodell-Widerspruch-Nonsens«, erinnert stark an die Bestandsaufnahme von Klaus Gebler:

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ Quelle: Als der Urknall Mode war  -  Erinnerungen an ein kurioses Weltmodell  -  Klaus Gebler 2005  ISBN 3-8334-3983-1

Wenn das alles noch nicht schlimm genug wäre, ...

kommen wir jetzt zur "Physik"

Higgs-BosonHiggs-Mechanismuswirtschaftliche Randbedingungen

zur Kenntnisnahme, zum Verständnis, zur Selbstanalyse

Es existiert bei genauer Betrachtung keine Prognoseleistung ausgehend von Peter Higgs (1929 – 2024) respektive ausgehend vom Higgs-Mechanismus (1964), weder axiomatisch noch real. Der experimentelle Nachweis des Higgs-Bosons (2012) ist indirekt und mehr als diskussionswürdig. Phänomenologisch unbegründete, mathematisch willkürliche Prozeduren liefern im Rahmen des “Higgs-Mechanismus” «Freie-Parameter-Gleichungen», die zu keinem konkreten Berechnungs-Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, dass mittels postulierter Kaskadenereignisse in vorbezeichneten so genannten Zerfallskanälen als “Nachweis” postuliert wird.
 

Wirklich real war nur die monetäre Situation...

Massive wirtschaftliche Existenzängste waren die eigentliche Grundlage für einen notwendigen Higgs-Boson-Nachweis. Als im September 2008 der LargeHadronCollider (LHC, initiale Baukosten ~ 3 Milliarden Euro, übergeordnet CERN, Jahresbudget CERN 2000 ~ 650 Millionen Euro , Jahresbudget CERN 2013 ~ 1 Milliarde Euro) erstmals in Betrieb genommen wurde (…der übrigens wegen technischer Schwierigkeiten bereits nach 9 Tagen folgend für ein Jahr nicht in Betrieb war) existierte bereits eine sehr angespannte Situation, da dem Standardmodell der Teilchenphysik und noch mehr der experimentellen Seite nur ein Higgs-Boson-Nachweis helfen konnte, ansonsten würden beiden, da Higgs-Boson ergebnislos bezüglich der Nachweis-Erwartungen, sozusagen die - früher oder später - Lichter ausgehen“, genauer „die Lichter ausgepustet werden“. Das Higgs-Boson mußte her, koste es, was es wolle, sowohl theoretisch konstruiert als auch experimentell, sonst wären - früher oder später - die Forschungsgelder weitreichend gestrichen worden. Wie real die Gefahr des Verlustes der Forschungsgelder war, läßt sich im Rückblick "natürlich" nicht sagen, da es ja zum "Nachweis"[HBN] (es darf gelacht werden) kam.

[HBN] Es war von außen betrachtet - mit und ohne LHC-"Nachweis" - noch drastischer, surrealer und erkenntnistheoretisch, zu jedem Zeitpunkt, ein »Nonsensprojekt auf mathematisch hohem Niveau«. Denn...

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung verletzt, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM- postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% (!!!) ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden.

Da geht noch was (!!!),...

Kommen wir zur Aussage, dass das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC,  veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Berechnungen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell)  ~ 125 GeV/c² angesiedelt sind. Besonders auffällig und besonders bemerkenswert sind die Berechnungen von DEKahana und SHKahana, veröffentlicht im Dezember 1993 (!) Die brisante Erkenntnis, die sich aus den theoretischen Details ergibt, ist die, dass der Higgs-Mechanismus zur Berechnung nicht benötigt wird, zumal dieser keine Möglichkeit eröffnet, die Higgs-Masse zu berechnen. DEKahana und SHKahana berechnen nicht nur die Higgs-Masse 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse präzise zwei Jahre vor dem experimentellen Nachweis, gleichfalls ohne freie Parameter.[KK]

[KK] Top and Higgs Masses in Dynamical Symmetry Breaking

David E. Kahana Center for Nuclear Research Kent State University Kent, OH 44242-0001 and Sidney H. Kahana Physics Department Brookhaven National Laboratory Upton, NY 11973    https://arxiv.org/pdf/hep-ph/9312316.pdf   21.Dec 1993

Abstract

A model for composite electroweak bosons is re-examined to establish approximate ranges for the initial predictions of the top and Higgs masses. Higher order corrections to this 4-fermion theory at a high mass scale where the theory is matched to the Standard Model have little effect, as do wide variations in this scale. However, including all one loop evolution and defining the masses self-consistently, at their respective poles, moves the top mass upward by some 10 GeV to near 175 GeV and the Higgs mass down by a similar amount to near 125 GeV.

..."4.Conclusions. In summary, one gets remarkably stable predictions for the top and Higgs masses and in a parameter free fashion. The only inputs were the experimentally known couplings and the W-mass. A characteristic prediction of this type of theory is mh < mt, so that the Higgs, which is practically a tt¯ condensate, is deeply bound. In view of the present dearth of events from the FNAL experiments with DØ and CDF, the above prediction for the top (near 175 GeV) may not be wholly wild. In light of the recent unfortunate developments at the SSC, the somewhat low prediction for the Higgs mass, near 125 GeV, may take considerably longer to test…

 

"Übrigens", die Kahana/Kahana-Berechnungsgrundlagen stammen aus dem Jahr 1961 von Y. Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 

Die Physiker D. E. Kahana und S. H. Kahana erkannten also spätestens 1993 (!) klar und deutlich, dass die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahres 1961 (!), sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964.

 

Kannte Peter Higgs die präzisen Kahana-Kahana-Berechnungen?

Michael J. Tannenbaum macht in seinen Ausführungen Waiting for the W and the Higgs  dazu folgende Bemerkungen (Seiten 20 und 21):

…”At the 50th course of the ISSP from June 23–July 2,2012 [Zichichi 2012], there was an unusually large number of invited distinguished guests, such as Peter Higgs (Fig. 12) and Murray Gell-Mann, because it was also the 40th Anniversary of QCD. I presented a talk about “Highlights from BNL and RHIC” on Wednesday June 27; then something very interesting happened. In the question period after my talk, when I was asked about some theory calculation of the PHENIX data, I said that I didn’t discuss theory, I leave that to the theorists. I added that “I don’t even talk about the Higgs boson until I see one ...” (Strictly this was not true, as I did mention the Higgs boson because I doubted that it gives mass to fermions.) At dinner, I spoke to Peter Higgs and said that I hope he wasn’t offended by my statement—he wasn’t. Then he said, “You’re from Brookhaven, right. Make sure to tell Sid Kahana that he was right about the top quark 175 GeV and the Higgs boson 125 GeV” [Kahana and Kahana 1993].”…

Dass weder Peter Higgs noch irgendein Standardmodell-Vertreter auf die bemerkenswerten Arbeiten von D. E. Kahana und S. H. Kahana öffentlich hinwiesen und diese auch populärwissenschaftlichen Magazinen offensichtlich „unbekannt sind“, obwohl diese in Fachkreisen bekannt sein mussten, dokumentiert die Brisanz der exakten theoretischen Voraussagen aus dem Jahr 1993.

 

Spätestens seit der Higgs-Boson-"Entdeckung" sind die Kahana/Kahana-Arbeiten zum Higgs-Boson und zur Top-Quark-Masse "retrospektivisch" im Rahmen des SM als außergewöhnlich zu bezeichnen. Aber warum gibt es keine adäquate Erwähnung oder gar den Nobelpreis für diese Theorieleistungen?

Ein "Problem", welches aus den präzisen Kahana-Kahana-Berechnungen folgt, ist, dass man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf  Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358  war das gesamte SM-Projekt bereits Anfang der 1960er Jahre im Ansatz erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. 

Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und zweistelligen Milliardenbeträgen für alle möglichen Beschleuniger und deren Betrieb. Wir "reden physikalisch" von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin. Oder?

Wie noch im Detail ausgeführt wird, sind die Quantenmechanik (QM, daraus resultierend die Quantenelektrodynamik (QED) zusammen mit der Quantenchromodynamik (QCD) von Tag eins an, »axiomatisch formulierte Totgeburten«, sowie das Kosmologische Standardmodell.

 

Nicht bekannte dokumentierte Wahrheiten

Was kaum realisiert wird, da es populärwissenschaftlich nicht kommuniziert wird, ist die Tatsache, das sich nahezu alle Quantenmechanik-Konstrukteure von dieser im Nachhinein distanzierten.

Schrödinger-Gleichung

Exemplarisch drei QM-Heroen "im Nachgang"

Der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“  ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics«

Der Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."... Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh
 

Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

"Einstein: Die Ikone der modernen Physik

Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde."

 

 

Apropos Neutrinos

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Niels Bohr (1885 - 1962) äußerte bereits 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand.

Ich mache es an dieser Stelle kurz. Es gab nie Neutrinos. Es gibt keine Neutrinos. Warum das argumentativ nachvollziehbar so ist, wird noch ausführlich erörtert. Ein fundamentaler Aspekt, phänomenologisch im Rahmen der Masse-Raum Kopplung interdisziplinär verständlich, führt zu wesentlichen Konsequenzen, die allesamt bereits experimentell bestätigt wurden. Dies bedeutet (somit auch) eine fundamentale Erweiterung des Energieerhaltungssatzes, auch wenn sich Niels Bohr das so nicht vorgestellt hatte.   

 

Keine Gnade

Letztendlich könnte man sich tolerant zeigen und darauf hinweisen, dass ein Denkmodell eben nur ein Denkmodell ist. Mit der Konsequenz, das die Standardmodelle im Vergleich zur Elementarkörpertheorie, gemäß dem Prinzip der Parsimonie, zwar eindeutig verlieren, aber ihre Existenzberechtigung behalten (könn(t)en). Nun, was "soll ich sagen", nein, dem ist nicht so. Nicht weil ich das (emotional motiviert) nicht will, sondern weil es zahlreich argumentative Gründe gibt, die die Standardmodell-Postulate, derzeit 31(!) freie Parameter (25 SM, 6 ΛCDM)mehrere Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien und die resultierenden Aussage-Ergebnisse der Standardmodelle als reine Versuchs-Märchen-Interpretationen identifizieren. 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Fazit: Es handelt sich bei dem SM und dem ΛCDM-Modell  um philosophisch-mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle! Somit haben sie keine Modell-Daseinsberechtigung zur Beschreibung der physikalischen Welt, auch losgelöst von der Existenz der EKT.

 

Bevor ich mit den vergleichenden Denkmodell-Anatomie-Ausführungen beginne, möchte ich noch den Nobelpreisträger Burton Richter zu Wort kommen lassen, dem Niemand vorwerfen kann, er wäre ein Outsider des Standardmodells der Teilchenphysik.

Burton Richter: ein Pionier der Teilchenphysik und Nobelpreisträger schrieb 2006 u.a. „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik giltnicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen istVereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“ Quelle: Theory in particle physics: Theological speculation versus practical knowledge  Physics Today October 2006

 

 

 

Stell' Dir vor es geht!

in Anlehnung an das expressionistische Stirb & Werde Prinzip

Konsequenzen einer Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes zur Kenntnisnahme, zur Selbstanalyse und zum Verstehen.                                        

 

 

Lesetechnisches

Auf Grund der Informationsfülle und notwendigen verständnisfördernden Lesbarkeit sowie der Abbildungsästhetik eignet sich zum Betrachten der vorliegenden Webseite(n) ein Tablet mit geeigneter Auflösung aber kein Smartphone. Die erste Wahl ist ein Computermonitor.

Randnotiz

(Generelle) Browserempfehlung

BRAVE ist ein freier, datenschutzfreundlicher Webbrowser, der auf der Grundlage des Chromium-Webbrowsers entwickelt wurde und automatisch die meisten Werbeanzeigen und Website-Tracker blockiert. Auch wenn das hier nicht notwendig ist, da keinerlei Werbung etc. im Rahmen der Webseite existiert.

 
 
 

Der vorliegende - interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes, Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt.

 
 
 

"Natur lässt sich nicht formalisieren. Was sich formalisieren lässt, sind ausschließlich Denkmodelle zur Beschreibung der Natur."           Dirk Freyling

Freude an der Wirklichkeit

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie respektive des alternativen Denkmodells zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

                        

[BASISSUCHE  AlexDirkFreyling 45ndf  Foto von T.B. ARTSTOFF Galerie Südturm]

Zeitreichtum ist in jedem Fall ein Muß. Leser die bereits Schwierigkeiten haben längere Online-Medien-Texte "gängiger" populärwissenschaftlicher Anbieter konzentriert und nachhaltig verstehend zu lesen, kommen mit diesem Handicap hier nicht weit.

 

Terminologie & Notation

Verwendung von Fachbegriffen

Vorliegende Ausführungen sind nicht nur für Themenvertraute geschrieben (worden). Das bedeutet u.a., dass Interessierte mit wenig "Fachwissen" unvermeidlich mit Begriffen konfrontiert werden, die nicht selten zum nachhaltigen Verstehen implizit eine ganze Schar von weiteren Informationen und Zusammenhängen beinhalten. Das ist unvermeidbar. Einige dieser Begriffe werden im direkten inhaltlichen Zusammenhang erklärt, andere nicht. Im Zweifelsfall sollte der erst einmal unverstandene Begriff "hingenommen werden".

»phänomenologisch begründet«

In den vorliegenden Ausführungen wird des Öfteren der Terminus »phänomenologisch begründet« verwendet. Was bedeutet das?

Im Gegensatz zu den vorherrschenden Standardmodellen der (Elementar-)Teilchenphysik (SM) und dem Kosmologischen Standardmodell (ΛCDM-Modell) ist das alternative Denkmodell (Elementarkörpertheorie, kurz EKT) mathematisch einfach und anschaulich. Die Modell-Gleichungen sind plausibel-geometrisch »sinnerfahrbar«. Was das im Detail bedeutet, ist Gegenstand aller folgenden Betrachtungen und resultierenden Berechnungen im Rahmen der EKT.

Didaktisches

Insgesamt betrachtet, werden im weiteren Verlauf, Schritt für Schritt, die phänomenologischen Zusammenhänge erklärt. Spätestens jedoch am Ende der Ausführungen wird für jede Herleitung, für jede Berechnung die Verknüpfung zu den ausführlichen Beschreibungen und Herleitungen angegeben. Nichts bleibt ungeklärt, nichts bleibt im Rahmen des Denkmodells unbewiesen.

Die einen oder anderen "frühen" Erklärungen respektive Ausführungen im Text, beispielsweise zur postulierten inflationären überlichtschnellen Expansion des Universums, gemäß dem Standardmodell der Kosmologie (ΛCDM-Modell) und vergleichend die Masse-Raum Kopplung als alternative Denkmodellgrundlage, sind insofern früh im Text erwähnenswert, um die willkürlichen Konstruktionen der Standardmodelle exemplarisch zu begreifen und im direkten Vergleich die Voraussagefähigkeit der wortwörtlich um Dimensionen einfacheren formalisierten Denkmodellalternative selbst testen zu können.

Inkonsistenzen und willküraffine Erweiterungen bezüglich der postulierten Theorieentitäten und deren Wechselwirkungen innerhalb der Standardmodelle werden sozusagen "portioniert" mit dem »Alternativmodell« verglichen.

Der Paradigmenwechsel

»information-abstract«

 

Informationen zum Präsentationsstand

Ich arbeite (in Buchstärke) an zusammenfassenden Ausführungen bezüglich des interdisziplinär (zumindest in Hinblick auf wesentliche Aussagen) verstehbaren konkreten Paradigmenwechsels im Bereich der Denkmodelle der Theoretischen Physik auf Grundlage der Elementarkörpertheorie (EKT). Diese zusammenfassende Ausarbeitung wird noch einige Zeit in Anspruch nehmen. Die hier vorliegende unfertige, frei verfügbare Version (sozusagen „on the fly“) als Webseite respektive Webseiten-Ensemble unterliegt einer dynamischen Überarbeitung, mit dem Ziel möglichst präzise vorzutragen. Testleser(innen) untersuchen derzeit die Präsentation u.a. auf Verständlichkeit, Konsistenz etc. Da die Erfahrung zeigt bzw. gezeigt hat, dass im Dialog mit Lesern, die eine oder andere Formulierung zum Verständnis hätte besser und genauer sein können.

Trotz der bereits großen Informationsfülle sind die fachlichen Ausführungen im Hinblick auf die Gesamtausführungen hier (im Sinne aller Phänomene und Wechselwirkungen sowie quantitativ) noch unvollständig. Die extensive Grundlage des Vortrags ist die Elementarkörpertheorie→, die alle Denkmodellaspekte eines Masse-Radius gekoppelten Raumes detailliert vorstellt. Es ist jedoch nicht empfehlenswert "hier und jetzt" sprich sofort mittels des angegebenen externen Links, aus Neugierde oder parallel zur Orientierung, dort nachzuschauen. Denn da wird noch viel mehr, als in den folgenden Denkmodellanatomie-Betrachtungen, die hier bereits umfangreich ausgeführt werden, Zeitreichtum, Geduld und Aufmerksamkeit gefordert.

Bezüglich der hier vorliegenden interdisziplinären Vorstellung bedeutet das: Die fachlichen Inhalte und Aussagen bleiben gemäß Modellvergleichen und den Charakteristika der Elementarkörpertheorie unverändert, da diese den verbindlichen Kern des Vortrags darstellen, was sich mitunter ändert, sind die Ausformulierungen sowie die Präsentations-Reihenfolge dieser. Insbesondere am Ende der hier vorgestellten Ausführungen zum Paradigmenwechsel sind Text-Fragmente, Grafiken, Gleichungen,... zur Zeit - hier und da - nur "lose arrangiert", "geparkt", unvollständig, teils redundant "aufgelistet".

Ein Inhaltsverzeichnis mit direkten Verknüpfungen zu den aufgeführten Inhalten folgt erst dann, wenn die Präsentation vollständig ist.

 

Was macht einen Paradigmenwechsel so schwierig?

Sofern die phänomenologisch-formalen Aspekte im Hinblick auf überprüfbare  Voraussagefähigkeiten gemäß dem »Prinzip der Parsimonie« deutlich für einen Denkmodellwechsel sprechen, sind es, realistisch betrachtet, ausschließlich "banale" wirtschafts-existentielle sowie psychologische Gründe, die einen Paradigmenwechsel verhindern.

i) Alle, die bisher als Protagonisten (Wissenschaftler, Dozenten, Techniker,..., Wissenschaftsberichter,...) auf Grundlage des bestehenden Denkens (herrschende »Denkdogmen«) ihr materielles Leben bestritten haben, verlieren ihre Arbeitsgrundlage sprich ihre wirtschaftliche Existenz. Des Weiteren ist der Reputations- respektive Ego-Schaden immens.

ii) Der »Prinzip der Parsimonie-Gewinner« schlägt (auch) alle kreativen Kritiker, deren Denkmodelle nun nicht mehr in Betracht kommen (können), aus dem Feld. Sie verlieren ihre Daseinsberechtigung. Das bedeutet das finale Aus für deren geistige Arbeit. Das führt u.a. zu erheblichen Ego-Kränkungen.

»Das Prinzip der Parsimonie kennt keine Koexistenz

Ausgangssituation

Trotz gegensätzlicher Anfangs-Positionierung wollen im Ergebnis weder die jetzigen »Denk-Dogmatiker« noch die Dogma kritischen »Alternativ-Denkmodell-Kreativen« einen Paradigmenwechsel.

Wer kann, will und/oder sollte sich also einen erfolgreichen, nachhaltigen Paradigmenwechsel, außer dem »Prinzip der Parsimonie-Gewinner«, wünschen?

iii) Auf den ersten Blick könnte man annehmen, das "so etwas" wie freudige, dankbare (insbesondere Fach-)Wissende existieren, die, gemäß ihrer eigenen Betrachtungen, ("schon lange") realisierten, welche immensen Widersprüche und brachiale Willkür den herrschenden Denkmodellen innewohnt. Diese sind jedoch höchstwahrscheinlich, bis auf sehr wenige Ausnahmen, von einer weit verbreiteten, antrainierten, etablierten "Menschlichkeit beseelt", die im Bereich der Theoretischen Denkmodellphysik konkret besagt, dass man sich - nach mehr als 100 Jahren »Moderner Theoretischer Physik« - schlicht nicht vorstellen kann, das diese im Kern fundamental - plakativ formuliert - denkmodell-falsch ist.

[Warum falsch? Kann ein Denkmodell überhaupt falsch sein?]

Die richtige Antwort befindet sich ausschließlich im Denkmodell. Ein Denkmodell ist dann falsch, wenn es im Rahmen der Denkmodellpostulate verwendeten Axiome nachweislich widersprüchlich ist.

Im analytischen Ergebnis sind, wie argumentativ aufgezeigt wird, das Standardmodell der Elementar-Teilchenphysik (SM) und das Standardmodell der Kosmologie (ΛColdDarkMatter Modell) falsch.

Bevor hier unnötig Mißverstände entstehen, ein Paradigmenwechsel, gemäß dem »Prinzip der Parsimonie«, ist losgelöst davon, ob Denkmodelle in sich widersprüchlich sind oder nicht, begründet. Vorliegend sind jedoch SM und ΛCDM-Modell auch (noch) falsch.

 

Wie kann, trotz der benannten schwierigen Randbedingungen, ein argumentativ begründeter Paradigmenwechsel von "außen" unterstützt werden?

Hier kommen »interdisziplinär Informierte« ins Spiel, die zwar (erst einmal) nicht wissen, was Aussagen wie beispielsweise...

"Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen."

bedeuten, aber sehr wohl sofort daraus realphysikalisch erfahrbare Konsequenzen verstehen, wie...

"Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen."

Aus diesem »Pool«, vom Paradigmenwechsel nicht (nachteilig) betroffenen »interdisziplinär Informierten«, kann, insbesondere wenn es sich um Wissenschaftler handelt, mittels Fachveröffentlichungen und allgemeiner, im Rahmen medial inszenierter Aufmerksamkeit, in populärwissenschaftlichen Magazinen, eine weitreichende Aufklärung erfolgen.    

 

Wie erklärt man das vollkommen Unerwartete?

Es existiert ein Informations-Dilemma. Einerseits macht es Sinn, formal-analytisch exakt, kurz und knapp die signifikanten Vorteile des Denkmodells der Masse-Raum Kopplung erst einmal - sozusagen aphoristisch - vorzustellen. Das geht jedoch zu Lasten des Verständnisses auf der Leserseite und läßt den Autor fragwürdig erscheinen, da für eine stringente, konsistente, formal sachgerechte Denkmodell-Vorstellung jeder Entwicklungsschritt, bis hin zum Formalismus, lückenlos aufgezeigt werden sollte. 

So oder so ist es für viele Interessierte eher schwierig, hinderlich bis abschreckend, wenn man mit etwas Neuem konfrontiert wird, aber die Hintergründe, Herleitungen etc. noch nicht kennt respektive (noch) nicht versteht. Andererseits sind zu lange Ausführungen, "bis man zum Punkt kommt", in denen es, im Sinne eines konsistent begründeten Paradigmenwechsels, richtig interessant wird, auch problematisch. Leser vermuten dann meist das aus den (Zeitgeist-)(Mainstream-)Medien "gut" bekannte "Um den heißen Brei reden", um am Ende festzustellen zu müssen, das es eigentlich doch nichts relevantes Neues gibt.

Hand aufs Herz, insgesamt kann sich eh kaum jemand vorstellen, das es nachhaltige, komplett andersartige Beschreibungsmöglichkeiten im Rahmen von Theoretischen Modellen geben kann, die, gemäß des Prinzips der Parsimonie, den etablierten Denkmodellen deutlich überlegen sind. Insbesondere kann sich niemand, allen voran Theoretische Physiker, vorstellen, das ein alternatives Denkmodell konsistent und skalenübergreifend zur langersehnten Vereinheitlichung führt und alle diesbezüglich relevanten Meßwerte in Form von mathematisch einfachen, formal-analytischen Gleichungen voraussagt. Sowas "hört sich" respektive liest sich wie ein Fantasie-Märchen. »Denkmodell-Neues«, insbesondere mit solchen unvorstellbaren Ankündigungen, wird in der Regel ungelesen ignoriert. 

Wie auch immer, was sich das Gros der Menschen nicht vorstellen konnte und vorstellen kann, ist für die Wissens-Besitzer dessen, offensichtlich inhaltlich ohne Belang. Es wird folgender »Informationsweg« zur Rezeption angeboten:

Sollten die hier - "früh im Text" - expliziten Gleichungen, insbesondere für Nicht-Mathematiker/Nicht-Physiker, irritieren oder den Leser zu sehr "strapazieren", so können diese erst einmal nur überflogen werden. Es folgen im Rahmen der weiteren extensiven interdisziplinären Ausführungen noch genügend Möglichkeiten diese anschaulich zu verstehen. Um "Neues" aufnehmen zu können ist hier eine gewisse »Informations-Redundanz« gewollt. Der eine oder andere Sachverhalt wird wiederholt erörtert.

Auch fachwissenschaftliche "Einschübe", fachwissenschaftliche Details die (erst einmal) kaum oder nicht verstehbar sind, sollten nur "kreativ überflogen" werden. Auch ohne ein tieferes Verständnis lassen sich aus den allgemein verständlichen Text-Fragmenten wissenschaftliche Kernaussagen erkennen. 

Was alle Leser in jedem Fall so früh wie möglich sehen und realisieren sollen, ist die Tatsache, dass ohne Übertreibung, ohne "Schöntuerei", das anschauliche Denkmodell der Masse-Raum Kopplung und der daraus resultierenden exakten Berechnungen - im Vergleich mit nur genäherten, stark freie Parameter lastigen Standardmodellgleichungen - mathematisch extrem einfachst, formal-analytisch exakt und experimentell bestätigt werden.

Ob und inwieweit (folgend) argumentativ begründete Bestandsaufnahmen in der Rezeption massentauglich sind, ist aus analytischer Sicht ohne Belang.

Mit diesen Randbedingungen beginnt die interdisziplinär verständliche Wissensreise hier und jetzt...  

 

                            

statt  4 Grundkräften    →   Masse - Raum - Kopplung

 

 

 

 

Umfang und Art der Ausführungen

Es existiert kein Anspruch auf Vollständigkeit. Übersteigerungen, plakative Aussagen und - hier und da - Satire, dienen der unterhaltsamen Wahrheitsfindung in einem, aus wissenschaftlicher Sicht, meist unwissenschaftlichen Umfeld. Diesbezügliche Textaussagen sollen als »Reflexionskeime« zum eigenständigen Nachdenken und Recherchieren anregen. Anders als ein Buch oder ein pdf-Dokument ist die vorliegende html-basierende Präsentation (quantitativ) in Buchstärke erst genannten deutlich überlegen. Quellenhinweise können durch Link-Klicks direkt gelesen und  deren Inhalte aufgenommen werden, es lassen sich zum Verständnis Videosequenzen einbauen, nachträgliche Text-Korrekturen und Informationserweiterungen sind technisch schnell und einfach durchzuführen.

Wiederholungen

Zum Kennenlernen werden einige Sachverhalte und Denkanstöße an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest. Die Texte sind so geschrieben, dass mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an der einen oder anderen Stelle, ein Begriff nicht bekannt sein, oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen. Denn im weiteren Kontext wird das eine oder andere Unverstandene bereits verständlich.

 

Wikipedia

"Parallel" Wikipedia zu bemühen ist leider nur für den groben Überblick zu empfehlen. Wikipedia-Moderatoren sind systemtreu. Kritik an Standardmodellen wird zensiert, es sei denn, diese kommt als harmloser Selbstversuch, direkt von den Standard-Modell-Protagonisten, die dann früher oder später Standardmodell freundliche Lösungen bzw. meist Theorie-Erweiterungen präsentieren. Darüber hinaus ist die deutsche Wikipedia im Vergleich zur englischsprachigen Wikipedia oftmals deutlich weniger umfangreich und deutlich weniger kontrovers, sofern man überhaupt von Kontroverse sprechen kann

 

Was ich nicht weiß, macht mich nicht heiß oder so ähnlich...

Hier und da werden Wikipedia-Ausführungen zur Inhalts- und Begriffsbestimmung im Text angegeben. Dies sind jedoch meist die englischen Varianten. Wie informationsreduziert - umgangssprachlich ohne Übertreibung grottenschlecht - deutsche Wikipedia-Artikel im Vergleich mit den englischen sind, verdeutlicht exemplarisch: Fermi's interaction im Vergleich zu Fermi-Wechselwirkung  

Auch das so genannte Hierarchie-Problem des Standardmodells wird in der deutschen Wikipedia im Vergleich zur englischen unzureichend erklärt.

Zum Verstehen, u.a. von Standard-Denkmodell-Unzulänglichkeiten gibt es zu extrem wichtigen Themen, nicht einmal eine deutsche Beschreibung, wie zur Physik jenseits des Standardmodells, siehe Physics beyond the Standard Model

Sofern es sich um kosmologische Inhalte handelt, sieht die Situation folgendermaßen aus... Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass der „Laie“ mittels der deutschen Wikipedia im wahrsten Sinne des Wortes unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren. Warum ist die deutsche Wikipedia „so schlecht“ im Verhältnis zur englischen? Das Englisch die Sprache der Wissenschaft ist, daran kann es nicht liegen, da die Idee von Wikipedia ja die Vermittlung von Information sein soll. „Brauchen“ deutschsprachige Interessierte keine ausreichende, themen-adäquate Information? Kein Wunder, wenn sich die Leute alles Mögliche zu diesen Themen „zusammenspinnen“, da ihnen nicht einmal die notwendigen Grundlagen von deutschen Wikipedia-Autoren vermittelt werden. 

Bei Personeninformationen kann man kaum glauben, dass es sich um ein und dieselbe Person handelt. Siehe hier stellvertretend Augustin Jean Fresnel (1788 – 1827), deutsch, englisch, französisch

 

 

 

Meinungen sind keine Argumente

Skepsis ist eigentlich eine gute "Sache". Aber, Skepsis wird dann zum Problem, wenn die Aufnahmefähigkeit des Betrachters dadurch signifikant gestört wird. Jemand der sich einem Denkmodell inhaltlich nähert und (wiederholt) die Frage stellt, ob das Denkmodell seinen eigenen bisherigen Vorstellungen entspricht oder anfängt selbst (ergänzend) zu spekulieren, bevor das Denkmodell hinreichend verstanden wurde, ist kaum in der Lage sich den neuen Gedanken mit der nötigen Aufmerksamkeit zu nähern. Die eigentlichen Probleme des Verstehens kommen dann, selbst bei einem leicht verständlichen Denkmodell mit wenig Mathematik, von der Egozentrik des Betrachters.

Das zu jeder Meinung Gegner und Befürworter existieren, ist nichts Neues. Aus wissenschaftlicher und erkenntnistheoretischer Sicht sind jedoch subjektive Meinungen über physikalische Zusammenhänge kategorisch abzulehnen, da letztendlich eine Realphysik orientierte Beschreibung stets in Einklang mit der Beobachtung stehen muß und eine Meinung mit dieser Wissens-Normforderung kohärent ist oder nicht.

Fatal wird es, wenn Betrachter Aussagen und Postulate bestehender Modelle als Grundlage der Bewertung des neuen Denkmodells "annehmen" respektive fordern. Nicht selten waren/sind die Betrachter gar nicht in der Lage die formalen Grundlagen und die Fülle an Inkonsistenzen bestehender Modelle zu erfassen. In der Regel sind dem Gros der Betrachter die Randbedingungen der bestehenden Modelle gar nicht (ausreichend) bekannt.

 

ein überfälliges Rendezvous mit ursächlicher Rationalität

 

Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert »plakativ-psychologisch« auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren*, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des  »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

 

Denkmodell-Geschichte

Das Verständigungs- bzw. Interpretations-Problem aus Sicht der Standardphysiker begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, dass gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT nichts über die Invarianz der Lichtgeschwindigkeit.

Bevor Mißverständnisse aufkommen, es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert keine Phänomenologie zur Mathematik der SRT. Die Inertialsystem behaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, dass Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformation in ihrer ursprünglichen Form. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Mit einfachen Worten: Es stellte sich mir schon 1986, während meines Physikgrundstudiums, die Frage, welche mathematische (Ur-)Gleichung den "relativistischen" Faktor der dynamisierten Lorentztransformation abbildet. Fakt ist: Losgelöst von konkreten Denkmodellansätzen sind Realobjektwechselwirkungen stets dynamisch. Da die SRT „inertialsystembelastet“ ist, musste zwingend für einen dynamischen Entwicklungsprozess v = const. durch v = dr/dt ersetzt werden. Das Auffinden der Funktion r(t) = r0 · sin(c · t/ r0) war somit einfach. Die später erdachte Elementarkörper(re)konstruktion bildet einen der Denk-Versuche ab, wie man sich geometrisch "etwas" vorstellen kann. Doch primär und in letzter Konsequenz, war das "einfache" Ersetzen der "unnatürlich" stets konstanten Geschwindigkeit durch eine variable Geschwindigkeit der Schlüssel zu einem komplett neuen Verständnis.     

 

* ...und bitte

Alles, was Sie über Physik wissen müssen, um zu beginnen...

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Ein formal fundamentaler Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

                     

                           

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.

Eine grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden.

 

Ruhemasse

Die Ruhemasse (invariante Masse) der Speziellen Relativitätstheorie (SRT) ist inhärent mit Inertialsystemen verbunden. Zur Begriffsdefinition: Eine Größe, die sich bei Lorentz-Transformationen nicht ändert, heißt Lorentz-Invariante. In der Speziellen Relativitätstheorie wird Masse (mSRT) so definiert, dass sie eine lorentzinvariante Größe ist.

Im Rahmen vorliegender näherungsfreier, phänomenologisch begründeter Elementarkörper wird der Begriff Ruhemasse (m0) verwendet, dieser ist jedoch von dem Begriff der Ruhemasse der Speziellen Relativitätstheorie (SRT) zu unterscheiden.

Die Ruhemasse entspricht dem voll ausgebildeten Elementarkörper (m(t) = m0, r(t) = r0). Die innere Dynamik und alle möglichen Elementarkörperwechselwirkungen sind inertialsystembefreit.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt von der Relativitätstheorie nur der Lorentzfaktor γSRT als eindimensionaler, statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn "übrig":

γSRT = 

inertialsystembehaftet, statisch und eindimensional

γdyn = 

inertialsystembefreit, radialsymmetrisch, dynamisch

 

Formalität als Realität

Gedanken von Claes Johnson (Professor für Angewandte Mathematik)

"Moderne theoretische Physiker wurden zu der Überzeugung erzogen, dass mathematische Formeln eine tiefe Wahrheit über die Realität offenbaren können, die weit über das Verständnis der Physiker hinausgeht, die die Formeln aufschreiben: Es handelt sich um eine Form der kabbalistischen Wissenschaft, bei der Zeichen auf einem Stück Papier eine tiefe Bedeutung erhalten. Dies wird durch die Lorentz-Transformation der speziellen Relativitätstheorie demonstriert, die eine einfache lineare Koordinatentransformation ist, von der angenommen wird, dass sie einige tiefe Wahrheiten über den Raum und die Zeit, in denen wir leben, offenbart. Wahrheiten, die so verblüffend, widersprüchlich und kontraintuitiv sind, dass eine endlose Anzahl von Büchern geschrieben wurde, um zu erklären, was die Bedeutung ist, ohne irgendetwas zu klären." Quelle: »Dr Faustus of Modern Physics«

 

 

 

Die Elementarkörper-Theorie stellt einen Energie erhaltenden fundamentalen Zusammenhang u.a. zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.

 

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

"Reine" SINUS-Funktion

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist heute im Rahmen der "Modernen" Physik allgegenwärtig. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zur Formalisierung zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst.

 

Die Tatsache, dass wir in sehr guter Näherung  in Korrespondenz zu einem Masse-Raum gekoppelten Mikrokosmos –  auf einer Kugeloberfläche leben, führt nicht zu einer dreidimensionalen Raumkrümmung oder gar zu einem mathematisch konstruierten Raum-Zeitkontinuum (Raumzeit).

Die Tatsache, dass elementare Strukturen initial aus oszillierenden Kugeloberflächen bestehen, führt gleichfalls nicht zu einem vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von Raum und Zeit. Es kommt ganz im Gegenteil zu einer konstruktiven „Beschreibungsverarmung“. Die Isotropie führt zu einer 2-dimensionalen Plausibilität, die sich »formal-konstruktiv« auf Zeit und Radius „verarmt“.

Die Selbstverständlichkeit, dass die Wegstrecke auf einer Kugeloberfläche nicht der euklidischen Entfernung zwischen den Punkten A und B entspricht bedarf keiner Abstraktion. Die kürzeste Entfernung zweier Punkte auf einer Kugeloberfläche ist die so genannte Orthodrome (griechisch: orthos für gerade und dromos für Lauf).

Comptonwellenlänge

Energie-äquivalent wird die Energie des Masse-Radius gekoppelten Realobjektes "alternativ" durch die Comptonwellenlänge λC = ½π · r0 definiert. Somit ergibt sich die Comptonwellenlänge »objekt-natürlich«.

Die Frage, wie "(werte-)sicher" die mit den Comptonwellenlängen assoziierten (Ruhe-)Massen inhärenten (Ruhe-)Radien (r0(m0)) sind, ist "leicht" zu beantworten: Comptonwellenlängen sind (auch) Meßgrössen.  [CODATAC(Proton)  CODATAC(Elektron)]

Dieses Elementarkörpertheorie basierende fundamentale Wissen wird u.a. durch Meßergebnisse im Rahmen (differentieller) Streuquerschnitte elastischer und inelastischer Streuungen bestätigt und steht gleichzeitig in einem eklatanten Widerspruch zu den Aussagen der Elementarteilchenphysik.

 

 

Masse-Raum Kopplung

Erst einmal nur zur Kenntnisnahme, ohne "das" an dieser Stelle herzuleiten, gilt: Das Produkt aus der [Ruhe-]Masse m0 und dem [maximalen] Radius r0 eines «[Elementar-]Körpers» ist konstant und wird durch die Masse-Radius-Konstanten-Gleichung [F1] beschrieben.

 

"Am Rande bemerkt"...

Ist die Quantenmechanik unverständlich?

Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik (QM) zwar unverständlich, irgendwie "seltsam" sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist.

Das hat(te) für die »QM-Bewahrer« den Vorteil, das sich nahezu niemand aufgerufen fühlt(e), sich kritisch mit Annahmen und Aussagepostulaten der QM zu beschäftigen. 

Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht "seltsam". Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«.

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung entwickelt werden kann (Fourier-Reihe):

 

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Kopenhagener Deutung von 1927

Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

Interessanterweise war es Albert Einstein (1879 - 1955), wie bereits erwähnt, der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

Und nochmals zur Erinnerung,…

der große Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da z. B. der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."... Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

 

Voraussagefähigkeit der Quantenmechanik

Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der Quantenfeldtheorien (QFTn) verwendete, teils neu definierte Mathematik (Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch unbegründet. Sie ist formal(-axiomatisch) deutlich komplexer und schwieriger verständlich als die bloße Erkenntnis, dass beispielsweise Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²)) "quantisiert" sind, kommt aber über den Status einer Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik (QED) basierend von einer hervorragenden Übereinstimmung von Theorie und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme, dessen iterative Ergebnisse den Meßwerten immer wieder angepasst wurden. Die einen sagen es nicht, die anderen durchschauen es nicht.

Tatsache ist: Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet respektive nicht möglich, da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die »reduzierte Masse mred = mA / (1 + mA/mB)« quantenfeld-phänomenologisch einzuführen. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

Reduzierte Masse

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit:

Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper jedoch um nichts Fiktives. Schon beim Wasserstoffatom ist die reduzierte Masse maßgebend relevant. Deutlicher wird der Massen-Wechselwirkungseffekt beim myonischen Wasserstoff, da dort anstelle der Elektronenmasse, die Myonmasse tritt.

Und auch hier zur Erinnerung ... der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“  ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics«

 

 

Ladungsabhängige Materiebildungen

(Die) »Elektrische Ladung« ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Raum-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Raum-Kopplung bequemerweise nur (implizit) über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. 

 

Beispiel

Grundzustandsenergie des Wasserstoffatoms

Übrigens, die angegebene Genauigkeit der berechneten Grundzustandsenergie ee ist kein "Genauigkeits-Scherz", da die Berechnungs(un)genauigkeit hier nur von den Meßwerten für Protonen- und Elektronen-Masse sowie von α (Feinstrukturkonstante) abhängen. c ist exakt festgelegt. Diese Meßunsicherheiten bestimmen in der exakten obigen Gleichung die Angabengenauigkeit.

Und, ∆ee ist kein Schreibfehler, wie man suggestiv vermuten könnte, das die Indizierung die Wechselwirkungspartner (p, e) angibt. ee steht hier (jedoch) für die Art der Wechselwirkung. Es gibt, im Rahmen der Masse-Raum-Kopplung, noch die q0e und die q0q0-Materie-Wechselwirkungen, wie später erörtert wird.

 

Schon Isaac Newton (1642 - 1727) hielt die Vorstellung, dass Gravitation durch den leeren Raum wirken könne, (berechtigterweise) für absurd. Es ist - übergeordnet und insgesamt betrachtet - alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Plakativ formuliert lässt sich das jetzige Universum (der Kosmos) anschaulich im Rahmen der Masse-Raum Kopplung, in formaler Analogie zum Elementarkörper des Mikrokosmos, ohne erst einmal auf die "makroskopischen Feinheiten" einzugehen, als gigantischer, noch in der Entwicklungsphase, jedoch "kurz vor Ende der Expansion, befindlicher Elementarkörper betrachten und formal analytisch einfachst erfassen und berechnen. Jedoch im Vergleich respektive konträr zum Urknall-Standardmodell der Kosmologie u.a. ohne freie Parameter, ohne überlichtschnelle Inflationsphase und ohne Raumzeitkonstrukt.

 

Kosmos & Gravitation im Bild der Masse-Raum Kopplung

»abstract«

Die im "bekannten" Newtonschen Gravitationsgesetz verwendete Gravitationskonstante γG bezieht sich auf den (denkbar) "längen-kleinsten", "massereichsten" [Elementar-]Körper G {Elementarquant} (dieser entspricht im historischen Zusammenhang respektive historischen Vergleich (energetisch) zwei Plancklängen und inhärent damit assoziiert 2 Planck-Massen). Dieser Sachverhalt ist nicht offensichtlich, da das "üblich formulierte" Gravitationsgesetz diesen ursprünglichen Zusammenhang nicht explizit offenbart.

 

Randnotizen

Ernst Mach (1838 - 1916) bemerkte, dass die "Schwäche" der Gravitation mit der "enormen" Grösse des Universums in Zusammenhang steht. Er vermutete eine Relation zwischen Universums-Masse, Universums-Radius und Gravitationskonstante. Sir Arthur Stanley Eddington (1882 - 1944) erhielt das Verhältnis von Universums-Radius zu Universums-Masse indem er die Gravitationskonstante durch c² dividierte (...formal-gleich im Rahmen der hier beschriebenen Korrespondenz zwischen »Längen-Kleinstem« und »Längen-Größtem«). Und auch Erwin Schrödinger hatte dies als Möglichkeit bereits 1925 geäußert. Warum sich diese einfache Annahme nicht durchsetzte hat höchstwahrscheinlich mit der (später) favorisierten (inflationären) Urknalltheorie zu tun. Dort war/ist kein Platz für »(korrespondierend) Einfaches«.  

 

 

Makrokosmos

Bekannte makroskopische Objekte (...Billardkugel, Fußball, Erde, Sonne,...) genügen nicht der Masse-Radius-Konstantengleichung. Ihre reale Ausdehnung ist (schon vor der Wechselwirkung) um viele Zehnerpotenzen größer, als es Gleichung [F1] Masse-Radius gekoppelt für Elementarkörper fordert.

Ohne die konkrete Natur der Vielteilchen-Verschachtelung zu kennen, lässt sich allgemein anschaulich verstehen, dass die scheinbar, im Verhältnis zur Ruhe-Energie, fehlende Raum-Energie ER der Gravitationswechselwirkung, in der realphysikalischen Objekt-Ausdehnung steckt, welche durch den Objektradius rO bzw. durch den Wechselwirkungs-Abstand r (Wechselwirkungsradius) zum Massenschwerpunkt gegeben ist. Mit dieser experimentell bestätigten Denkmodell-Annahme ist eine an Einfachheit und Aussagekraft nicht zu überbietende Gravitationstheorie im Rahmen der Masse-Raum-Kopplung geboren (worden).

              

                                     

Raumenergie = 0

Vereinheitlichte Korrespondenz

Gibt man in die Gleichung [ER] für mx und r die Werte mG und rG ein, so wird die Raumenergie zu Null, gleiches folgt für mx= mUni(max): maximale Universumsmasse und rG= rUni(max) : maximaler Universumsradius. Hier kommt die Universalität und Skalenkorrespondenz zwischen dem kleinsten Elementar-Körper (Elementarquant G) und dem größten makroskopischen Gebilde (Kosmos), formal vermittelt durch die Gleichung [ER], deutlich zum Ausdruck.

                         

 

Resultierend einige kosmische Zusammenhänge und Berechnungsergebnisse

Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Wie gezeigt wird, ist der im Universum omnipräsent vorhandene Wasserstoff u.a. die "Quelle" der 3K-Hintergrundstrahlung. Was könnte nahe liegender sein als die Alleinstellungsmerkmale des Wasserstoffatoms als Grundlage für die Verbindung zwischen dem »Längenkleinsten« und Universumsgrössen zu verwenden. Korrespondierend gedacht ist das Verhältnis von Protonenmasse zu Elektronenmasse (mp/me) ein maßsystemunabhängiger, einzigartiger Bildungsparameter. Eine Addition von »Längenkleinsten« und Universum macht keinen "beschreibenden" Sinn, weder phänomenologisch noch mathematisch, also kommt hier als "nächste einfache" mathematische Rechenoperation die Multiplikation in Betracht (rG  · rUni). Die »längen-charakteristische« Grösse ist die Wasserstoff-Atom basierende Rydberg-Energie und daraus der inhärente Radius der Rydberg-Energie-Verkörperung: rRy. Dimensionsanalytisch kommt in der kleinsten Potenz (rRy/2) in der 2.Potenz vor, damit dies (rG  · rUni) entspricht. Das Verhältnis (mp/me) beschreibt ein H-Atom, also folgt gemäß einfachster mathematischer Konstruktionsmöglichkeit : (rRy/2)² · (mp/me)²  =  (rG  · rUni)  [U1]. Die Grundgedanken, die zu der Gleichung [U1] führen, sind intuitiv-logisch. Jeder Folgegedanke ist - mit der strikten Vorgabe sowohl Realobjekt orientiert phänomenologisch als auch mathematisch minimalistisch zu sein - "zwingend".     

In der makroskopischen Masse-Raum gekoppelten Erweiterung läßt sich Gravitation anschaulich weitreichend konsistent formalisieren und führt zu analytisch exakten Berechnungen, wie beispielsweise zur Berechnung der (maximalen) Universums-Masse [mUni(max)  1,1829498·1053 kg muni(max) = runi(max) · (c²/γG) gemäß Forderung ER=0 ], der damit Masse-Raum gekoppelten inhärenten (maximalen) Größe des Universums : [rUni(max)  8,784775 ·1025 m]:

einem daraus assoziierten maximalen Universums-Alter von [tuni(max)   4,602881715·1017 [s]  ~ 14,596 Milliarden Jahre] gemäß r(t) = rUni · sin(c·t/rUni) folgt:  (π/2c) · rUni = tmax 

...und beispielsweise zur Berechnung der Temperatur der Hintergrundstrahlung, basierend auf den Masse-Raum gekoppelten Proton-Elektron-Wasserstoff-Wechselwirkungs-Parametern in Abhängigkeit der Grundzustandsenergie etc.  An dieser Stelle ergebnisorientiert (nur) so viel dazu:

Die Temperatur der "3K"-Hintergrundstrahlung beträgt, gemäß Masse-Raum Kopplung basierender Proton-Elektron-Grundzustandswechselwirkung, ausgedrückt durch die Thermische De-Broglie-Materiewelle ~ 2,67342 °K [Gleichungen: λTHE und λT], mit der Annahme, dass Wasserstoff 100 % der interstellaren Materie ausmacht. In Gleichung [λT] ausgedrückt mittels rRy (siehe Rydberg-Energie ERy (Grundzustandsenergie des H-Atoms).

 

Da jedoch kosmisch nur ~ 90% der Materie Wasserstoff basierend ist, ergibt sich hier eine reale Unsicherheit von 10%, die sich offensichtlich nicht beseitigen lässt, da der Kosmos nicht zu einem 100%igen Wasserstofflabor modifiziert werden kann.

Wie auch immer, der exakt berechnete (Wasserstoff basierende) Wert im Rahmen der EKT weicht nur um ca. 2% vom derzeitigen Wert des Kosmologischen Standardmodells mit  2,72548 ± 0.00057 K ab.

ABER: Alle Standardmodell-Ansichten zur Hintergrundstrahlung "kranken" bereits daran, dass, unberechtigter Weise, "im Kern" der theoretischen Annahmen und Berechnungen, davon ausgegangen wird, dass das Universum ein perfekter Hohlraumstrahler ist.

Historisches: Die Hintergrundstrahlung (CMBR) wurde zwar auch von der Urknall-Theorie vorhergesagt, aber wenig bekannt ist, dass die ersten Vorhersagen bei 50° K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst". Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75° K (Nernst 1938) und 6° K (Guillaume 1896).

»Vordergrundproblematik«

Bei allen Messungen zur Rotverschiebung und assoziierten 3-K-Hintergrundstrahlung sollte klar sein, dass der inhomogene Vordergrund in einem Simulationsmodell (Computerprogramm) "entfernt" werden muß, um das 3-K-Temperaturspektrum als solches aufzufinden. Nur wie soll das praktisch realisiert werden? Die Vordergrundsignale sind um einige Dimensionen größer als das zu messende "Ereignis" der Hintergrundstrahlung. Des Weiteren strahlen alle kosmischen Objekte auch im Infrarotbereich und die Intensitäten der Strahlquellen sind und bleiben geschätzt.

Fazit

Das Wasserstoff basierende EKT-Ergebnis resultiert phänomenologisch aus der Annahme, dass die Proton-Elektron-Wechselwirkung zu einem massegekoppelten Raum führt, der formal durch die Thermische De-Broglie-Materiewelle ausgedrückt wird. Die 3K-Hintergrundstrahlung respektive die Energie der 3K-Hintergrundstrahlung repräsentiert somit nicht ein expandierendes Raumzeit-Relikt des inflationären Urknalls, sondern das Ergebnis einer fortwährenden, statischen Wechselwirkung. Später mehr dazu.

 

Makro- & Mikrokosmos im (Teil-) »Aphoristischem Bild«

 

 

 

"Das Prinzip der Parsimonie kennt keine Koexistenz."

Dirk Freyling  59ndf

 

Wortgewordenes

Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall der Standardmodelle - die Theorie bestimmt, was gemessen werden soll.

 

"Objektivität ist die Wahnvorstellung, Beobachtungen könnten ohne Beobachter gemacht werden." Heinz von Foerster ( 1911 – 2002)

 

Es existieren zahlreich paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Widersprüche, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.

Daraus resultierende Vorteile aus Sicht eines ergebnisoffenen Erkenntnissuchenden: In einem motivierenden, konstruktiven Sinne enthalten die Standardmodelle so viele "Reflexionskeime" brachialer Inkonsistenzen und Widersprüche, dass es dem Konstrukteur eines Alternativmodells nie an (emotionaler) Energie fehlte bzw. fehlen wird. Da in den Denkmodellen der Quantenfeldtheorien (QED, QCD) und dem Kosmologischen Standardmodell keine Realphysik stattfindet, sind im Rahmen der Denkmodellalternative (Elementarkörpertheorie) phänomenologische Aspekte sozusagen aus der puren Notwendigkeit entstanden, erst zu denken und dann zu formulieren respektive zu formalisieren.

 

Form und Inhalt

Es gibt nicht wenige Stellvertreter der "Modernen Physik" die vorliegende gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt, ansonsten wird »Alles« ungesehen respektive ungelesen als unwissenschaftlich bewertet. Diese Norm-Forderung ist jedoch inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn Prof. Dr. »x...y...z« der Physik oder/und Mathematik ein "normgestaltetes" Dokument (»scientific paper«) präsentiert, wird er, sofern seine  Denkmodellvorstellungen von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der "jüngeren" Wissenschaftsgeschichte selbst recherchieren kann.

Aus Sicht des neuen Denkmodells werden schon "früh" im Text teils umfangreiche ergänzende geschichtliche sowie vergleichende Ausführungen zu den bestehenden Standardmodellen zum Lesen angeboten. Diese sind für das Verständnis des Denkmodells der Masse-Raum Kopplung im Sinne der Konsistenz, Phänomenologie und Formalisierung nützlich, aber - plakativ formuliert - nicht zwingend. Da diese Ausführungen den Lesern jedoch einen guten Überblick über die Beliebigkeiten, Inkonsistenzen, Widersprüche und teils esoterisch-metaphysischen SpekulationenBR des bestehenden Denkens in der theoretischen Physik geben, empfehle ich diese weitestgehend zu lesen. Tatsache ist, den wenigsten Interessierten, nicht einmal Physikern und Mathematikern, sind die zahlreichen - rational analytisch betrachtet - Absurditäten der Standardmodelle bekannt. Entsprechende »Informationseinschübe der Aufklärung« sind mit gekennzeichnet.

 

erstes Beispiel

[BRWas denken Pioniere der Teilchenphysik über die „heutige“ Teilchenphysik respektive über das „heutige“ Standardmodell der Elementarteilchenphysik?

Wobei „heute“ hier etwas grob gefasst mit dem Beginn des 21.Jahrhunderts startet. Ein Statement des Physiknobelträgres des Jahres 1976 Burton Richter aus dem Jahre 2006 beinhaltet eine klare Antwort.  

Burton Richter: „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“

Quote: “To me, some of what passes for the most advanced theory in particle physics these days is not really science. When I found myself on a panel recently with three distinguished theorists, I could not resist the opportunity to discuss what I see as major problems in the philosophy behind theory, which seems to have gone off into a kind of metaphysical wonderland. Simply put, much of what currently passes as the most advanced theory looks to be more theological speculation, the development of models with no testable consequences…“

QuelleTheory in particle physics: Theological speculation versus practical knowledge  Physics Today October 2006

 

Stell' Dir vor es geht

☼ Ein "kleiner" Vorgeschmack, auf das was kommt, aus dem Bereich der Mathematik...

Exemplarisches zur Leser-Motivation

Der folgende Kurz-Bericht über den unerwarteten Beweiserfolg des Mathematikers Thomas Royen ist ein appetitlicher Motivationshappen.

 

Thomas Royen ist ein deutscher Statistikprofessor, der  67-jährig und bereits vier Jahre im Ruhestand „verweilend“, in 2014 unerwartet die so genannte Gaußsche Korrelationsungleichung bewiesen hat: …Das Verblüffende an Thomas Royen's Beweis ist, dass er klassische Methoden nutzt, die im Grunde jeder Mathematikstudent verstehen kann. Der Beweis ist nur wenige Seiten lang…

Auch nach seinem letztendlichen Veröffentlichungserfolg ärgerte sich Royen noch lange im Hinblick auf die Tatsache, dass die etablierten Wissenschaftsjournale seine Arbeit ignorierten.

Hintergrund: Es gab diverse Mathematiker, die jahrzehntelang vergeblich versuchten den Beweis zu erbringen. Da sich Royen eher (out of the box) am Rande der mathematischen Fachkreise aufhielt, konnte er offensichtlich ergebnisoffener als seine Fachkollegen das Problem der Beweisführung angehen. Seine diesbezügliche Erstveröffentlichung wurde jedoch inhaltlich ignoriert, da diese nicht der gängigen Gestaltungsform entsprach. Erst als andere Mathematiker auf seinen Beweis aufmerksam wurden und in die normierte Veröffentlichungsform „transformierten“, wurde die Arbeit ernst genommen.

...viel einfacher als »Alle« behaupte(te)n

Übergeordnet wichtig ist hier der Hinweis, dass Royen exemplarisch das mittlerweile größte Problem der Wissensentwicklung - insbesondere im Rahmen Theoretischer Grundlagenforschung - exemplarisch offenlegt. Die etablierten Denkkonzepte lassen keinen Freiraum für zielführend einfache Gedanken. Die Standardtheoretiker denken und handeln so, als ob die von ihnen gewählten hochkomplexen, komplizierten Denkansätze alternativlos seien. Sie sind letztendlich nicht nur umgangssprachlich dumm, sie sind auch arrogant und ignorant. Diese Erwartungshaltung gepaart mit destruktiv emotionalen Charaktereigenschaften (später mehr dazu) ergeben eine fatale Mischung für den »Wissensbetrieb«.

 

 

Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten physikalischen Denkmodell Zeit und Beachtung zu schenken?

Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen.

Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für meßbare physikalische Größen.

a) Existieren keine Modell basierenden formalisierten Berechnungen die mit meßbaren Werten korrespondieren, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell.

b) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch konsistente, nachvollziehbare Erklärungen innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden (weitere) freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten, bekannten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine (weiteren) freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.

 

                    

Vereinheitlichung          Masse-Raum gekoppelt sind die elementaren Gleichungen  m(t) und r(t), die den Makrokosmos beschreiben, formal "gleich" den ursprünglichen Mikrokosmos-Gleichungen↓   

                                           

 

 

Masse-Raum gekoppelte (erste) Motivationshappen

Jäger und Sammler AlexDirkFreyling     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

 

Vorweg, an dieser Stelle ohne weitere Erklärungen, vier weitere Beispiele, wie einfach sich Physik formalisieren, herleiten und berechnen lässt, "wenn man weiß, wie es geht"...

 

Wie konsistent und "einfach" realobjektorientierte Grundlagenphysik sein kann, verdeutlichen vier Beispiele im aphoristischen Bild ...

Bedeutung der Elementarkörperüberlagerung im Hinblick auf Wechselwirkungen

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet, da, sowohl phänomenologisch wie auch energetisch, ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Das wird „wertemäßig“ besonders deutlich, wenn man die Massenverhältnisse beim myonischen Wasserstoff betrachtet, da der reduzierte Masseterm dort deutlich größer ist als beim Wasserstoffatom.  Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit: Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper, beispielsweise des Protons mit einem Elektron (Wasserstoffatom), jedoch um nichts Fiktives. Um überhaupt phänomenologisch verstehen zu können, das sich die Einführung des Terms mred = mA / (1 + mA/mB) begründen lässt, existiert eine solche Anschauung ausschließlich im Rahmen der Elementarkörper-Wechselwirkungen.

 

                             

      

Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)

Theoretische Berechnung der Neutronenmasse

Allgemeine Vorbetrachtungen

Wie erfreulich aussagefähig das vorliegende Masse-Raum gekoppelte Denkmodell ist, lässt sich am konkreten Beispiel der Neutronenmasseberechnung "leicht" verstehen. Aus der (e-Proton)-(q0-Elektron)-Wechselwirkung entsteht das Neutron. Die Gesamt-Masse des Neutrons mn ergibt sich zu:    mn = mp + me + ∆m       [nmass]

Es handelt sich um die mit Abstand einfachste und genaueste Neutronenmasseberechnung überhaupt. Von solchen, phänomenologisch begründeten, formal-analytischen Gleichungen können Standardmodellprotagonisten nur träumen.

 

Aus praktischen Gründen werden Zehnerpotenzen zur Berechnung wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, dass der interessierte Leser die entsprechenden Zahlenwerte "gleich" zur Kontrollrechnung übernehmen kann (Copy&Paste).

 

☼ kurz zum Verständnis zu CODATA und NIST

Das Committee on Data of the International Science Council (CODATA) wurde 1966 als Committee on Data for Science and Technology gegründet. Das National Institute of Standards and Technology (NIST) ist eine Behörde des US-Handelsministeriums, deren Aufgabe es ist, die amerikanische Innovation und industrielle Wettbewerbsfähigkeit zu fördern. Die Aktivitäten des NIST sind in physikalisch-wissenschaftlichen Laborprogrammen organisiert, die Wissenschaft und Technologie im Nanobereich, Ingenieurwesen, Informationstechnologie, Neutronenforschung, Materialmessung und physikalische Messungen umfassen. Von 1901 bis 1988 trug die Behörde den Namen National Bureau of Standards.

Für den Bereich der Physik, insbesondere der Experimentalphysik, ist relevant, das CODATA & NIST aktualisiert vorgeben, was die Referenzwerte für Meßgrößen und deren Standardabweichungen sind.

[CODATA-NIST Beispiel     Wert der Protonenmasse]

Die Unsicherheiten der CODATA-Werte sind in den folgenden Berechnungen meist nicht explizit benannt respektive werden nicht explizit berücksichtigt. Beispiel: Masse des Elektrons:  9,1093837015e-31  kg   9,1093837015(28)e-31, bedeutet eine Standardabweichung von ± 0,00000028e-31kg wird hier nicht berücksichtigt. Es wird mit dem Wert 9,1093837015e-31 kg gerechnet. Das ist, wie wiederholt gezeigt wird, kein Problem, da u.a. die Standardmodellphysik-Ergebnisse im Vergleich eh nicht formal-analytisch erzielt wurden und im direkten Vergleich mit den phänomenologisch begründeten einfachen Gleichungen der Elementarkörpertheorie (EKT) sprichwörtlich um (Standardabweichungs-)Dimensionen schlechter sind (später mehr dazu).

 

Theoretische Berechnung der Neutronenmasse

Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet:

me = 9,1093837015e-31  kg : Elektronenmasse

me(q0)=   (4/α) · m=  4,99325398628715e-28 kg

 mp = 1,67262192369e-27  kg  : Protonenmasse

=  2,99792458e+08 m/s      α = 0,0072973525693        0,77010243595795497 = 1/(1 + me(q0)/mp)

 ∆m = 1,4056007019747e-30 kg[0]       ∆Eee =    1,2632909101359e-13  J      ~    0,78848416793  MeV

mn =  mp + me + ∆m  = 1,674938462762e-27  kg

 Vergleich mit experimentell bestimmter Neutronenmasse

mn(exp) = (1,67492749804e-27 kg)  ~ 939,56542 MeV  [Quelle: CODATA 2018]

mn(EKT) / mn(exp) ~ 1,0000065463861

 

 

[0Ergebnis-Erweiterungs-Satire

Übrigens, man könnte, genauer, man sollte sich die obige Berechnungspräzision, wie z.B. für ∆m = 1,4056007019747e-30 [kg], im Hinblick auf die versuchsbedingten - im Vergleich zu formal-analytischen Rechnungen extremen - Standardabweichungen der Einfluss nehmenden Größen sparen. Es ist hier also kein Akt meines Unverständnisses der Zusammenhänge, sondern eine Art gewollter »Ergebnis-Erweiterungs-Satire« im Hinblick auf das, was noch gemäß Standardmodell-Postulaten alles möglich sein soll (...Berechnung und Messung des Wertes des anomalen magnetischen Moments des Elektrons bis hin zu postulierten Gravitationswellenmessungen).  

 

 

 

Warum glauben so viele Menschen,

dass die bestehenden theoretischen Modelle sehr gut sind?

Warum denken so viele Wissenschaftler, dass es keine besseren Alternativen gibt?

Psychologie der Masse(n)

[Gloria             Randy           KathleenWhite      MissEve   c-print   adf    40ndf]

Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Ein weiterer wichtiger Grund ist inhaltlich die Tatsache, dass kaum jemand weiß, worum es in den Standardmodellen geht.

            

Populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) und in einem größeren Rahmen des Standardmodells der Kosmologie (Lambda-CDM-Modell) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben.

 

Mythos  »Theorieschaft« [Theorie schafft]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Physik und Philosophie - Thesen und Realität

Die Physik beantwortet Wie-Fragen, die Philosophie beantwortet Warum-Fragen.“
Naja, Philosophen äußern Meinungen, selten bis nie handelt es sich um Antworten, die inhaltlich über willkürliche, subjektive Bewertungen hinausgehen. Im Rahmen der Angewandten Physik gibt es praktische Antworten, die im Ergebnis beispielsweise Speichermedien, Kommunikation und realen Transport möglich machen. In der Modernen Theoretischen Physik gibt es seit mehr als 100 Jahren keine Antworten mehr, die phänomenologisch basierend begründet sind, sofern man anschauliche Realphysik fordert.

Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen (später „am Rande“ mehr dazu).

Tatsache ist : Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) [BR]) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«SC

[SC] Siehe exemplarisch: Calculating the five-loop QED contribution to the electron anomalous magnetic moment: Graphs without lepton loops   veröffentlicht im November 2019

Autor: Dr. Sergey Volkov [Fachgebiete u.a. Kern- und Elementarteilchen-Physik, Relativitätstheorie]

Screenshot aus dem benannten "scientific paper"

Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor - stellvertretend für alle Autoren dieser Art von "Berechnungen" - nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbildenSB.

 

[SB] Siehe dazu exemplarisch folgende Bemerkungen und Ausführungen:

Um einen Eindruck von der grundsätzlichen Theorie-Problematik der „Strahlungskorrekturen“ in einem historischen Zusammenhang zu bekommen, empfiehlt sich der Beitrag von Mario Bacelar Valente :

The renormalization of charge and temporality in quantum electrodynamics

An konkreten Beispielen zeigt Valente auf, wie ergebnisorientierte, teils willkürliche „mathematische Erweiterungen und Umformungen“ in die Berechnungen einfließen und wie „hier und da“ Terme als unphysikalisch erklärt und deren Divergenzen nicht weiter berücksichtigt werden. Das ist höchst problematisch, da keine verbindlich axiomatischen Regeln gelten. Des Weiteren wird deutlich, dass keine physikalischen Interpretationen existieren, die die mathematischen Prozeduren mit phänomenologischen Inhalten "füllen“. 

Meinungen (Textauszüge):

Selbst in Anbetracht der Genauigkeit der Theorie bei niedrigeren Energien vertrat Schwinger die Ansicht, dass das Renormierungsverfahren, das es ermöglicht, die Unendlichkeiten in den Berechnungsergebnissen zu vermeiden, letztendlich aus der Physik ausgeschlossen werden muss. Die Position von Paul Dirac war diesbezüglich noch weniger sympathisch: "Ich bin sehr unzufrieden mit der Situation, weil diese sogenannte "gute Theorie" die Vernachlässigung von Unendlichkeiten beinhaltet, die in ihren Gleichungen auftauchen.

…”Even considering the accuracy of the theory at lower energies, Schwinger considered that the renormalization procedure, that permits avoiding the infinites in the results of the calculations, ultimately has to be excluded from physics. Regarding this problem the position of Paul Dirac was even less sympathetic: “I am very dissatisfied with the situation, because this so-called “good theory” does involve neglecting infinities which appear in its equations.3 ”…

3 Kragh, H. (1990, 184). Dirac: a scientific biography. Cambridge : Cambridge University Press.

Landau vertrat die Auffassung, dass die Grenzen der Quantenelektrodynamik noch drastischer seien, weil sie auf sehr grundlegende strukturelle Probleme im Aufbau der Theorie zurückzuführen seien: "Für sie waren allein schon das Konzept eines lokalen Feldoperators und die Postulierung eines detaillierten Mechanismus für die Wechselwirkung in einer mikroskopischen Raumzeitregion völlig inakzeptabel."

…”Landau considered that the limitations of quantum electrodynamics were even more drastic, because they would be due to very basic structural problems in the design of the theory: “for them the very concept of a local field operator and the postulation of any detailed mechanism for interaction in a microscopic spacetime region were totally unacceptable” 4 ”…

4Cao, T. Y., & Schweber, S. S. (1993). The conceptual foundations and philosophical aspects of renormalization theory. Synthese, 97, 33-108.  

Richard Feynman schrieb in The Strange Theory of Light and Matter (1985)

Das Shell-Spiel, das wir spielen, wird technisch als "Renormalisierung" bezeichnet. Aber egal wie schlau das Wort ist, ich würde es immer noch als schwachen Prozess bezeichnen! Der Rückgriff auf einen solchen Hokuspokus hat uns daran gehindert zu beweisen, dass die Theorie der Quantenelektrodynamik mathematisch in sich konsistent ist. Es ist überraschend, dass sich die Theorie auf die eine oder andere Weise als in sich konsistent erwiesen hat. Ich vermute, dass Renormalisierung mathematisch nicht legitim ist.“ 

…”The shell game that we play is technically called 'renormalization'. But no matter how clever the word, it is still what I would call a dippy process! Having to resort to such hocus-pocus has prevented us from proving that the theory of quantum electrodynamics is mathematically self-consistent. It's surprising that the theory still hasn't been proved self-consistent one way or the other by now; I suspect that renormalization is not mathematically legitimate.”…

Paul Dirac schrieb 1963 in dem Artikel The Evolution of the Physicist's Picture of Nature

"Die meisten Physiker sind sehr zufrieden mit der Situation. Sie sagen: 'Die Quantenelektrodynamik ist eine gute Theorie, über die wir uns keine Gedanken mehr machen müssen.' Ich muss sagen, dass ich mit der Situation sehr unzufrieden bin, denn diese so genannte 'gute Theorie' beinhaltet die Vernachlässigung von Unendlichkeiten, die in ihren Gleichungen auftauchen, und zwar auf eine willkürliche Weise. Das ist einfach keine vernünftige Mathematik. Vernünftige Mathematik beinhaltet, dass man eine Größe vernachlässigt, wenn sie klein ist - und nicht, dass man sie vernachlässigt, nur weil sie unendlich groß ist und man sie nicht haben will"...!

…”Most physicists are very satisfied with the situation. They say: 'Quantum electrodynamics is a good theory and we do not have to worry about it any more.' I must say that I am very dissatisfied with the situation because this so-called 'good theory' does involve neglecting infinities which appear in its equations, ignoring them in an arbitrary way. This is just not sensible mathematics. Sensible mathematics involves disregarding a quantity when it is small – not neglecting it just because it is infinitely great and you do not want it“…!

Abdus Salam schrieb 1972  in Infinity Suppression Gravity Modified Quantum Electrodynamics II

"Die feldtheoretischen Unendlichkeiten, die erstmals bei der Berechnung der Eigenmasse des Elektrons durch Lorentz auftraten, halten sich in der klassischen Elektrodynamik seit siebzig und in der Quantenelektrodynamik seit etwa fünfunddreißig Jahren. Diese langen Jahre der Frustration haben in der Fachwelt eine merkwürdige Zuneigung zu den Unendlichkeiten und einen leidenschaftlichen Glauben daran hinterlassen, dass sie ein unvermeidlicher Teil der Natur sind; so sehr, dass sogar die Andeutung einer Hoffnung, dass sie vielleicht doch umgangen werden können - und endliche Werte für die Renormierungskonstanten berechnet werden können - als irrational angesehen wird."

Field-theoretic infinities — first encountered in Lorentz's computation of electron self-mass — have persisted in classical electrodynamics for seventy and in quantum electrodynamics for some thirty-five years. These long years of frustration have left in the subject a curious affection for the infinities and a passionate belief that they are an inevitable part of nature; so much so that even the suggestion of a hope that they may, after all, be circumvented — and finite values for the renormalization constants computed — is considered irrational.“

 

Paul Dirac:

"Die Renormierung ist nur ein Notbehelf. Unsere Vorstellungen müssen sich grundlegend ändern, wahrscheinlich so grundlegend wie der Übergang von der Bohrschen Bahntheorie zur Quantenmechanik. Wenn sich eine Zahl als unendlich herausstellt, die eigentlich endlich sein sollte, sollte man zugeben, dass mit den Gleichungen etwas nicht stimmt, und nicht hoffen, dass man eine gute Theorie bekommt, indem man die Zahl einfach aufbessert."

"Renormalization is just a stop-gap procedure. There must be some fundamental change in our ideas, probably a change just as fundamental as the passage from Bohr’s orbit theory to quantum mechanics. When you get a number turning out to be infinite which ought to be finite, you should admit that there is something wrong with your equations, and not hope that you can get a good theory just by doctoring up that number.”

Quelle: Something is wrong in the state of QED

 

 

Renormierung und Regularisierung (Fragmentarisches zum Grundverständnis)

In Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben. Diese enthält eine bestimmte Anzahl von freien Parametern, deren Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen (Bornschen Näherung), können viele freie Parameter direkt mit den physikalischen Größen, wie z. B. den Massen oder der elektrischen Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt, so wird der direkte Zusammenhang zwischen den freien Parametern der Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern) und den physikalischen Größen zerstört. Dies macht eine Redefinition (Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf der Berechnung des Zusammenhangs zwischen den (postuliert) „unphysikalischen“ und den (postuliert) physikalischen Parametern können Integrale auftreten, die divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale gesichert wird, wird durch das Verfahren der so genannten Regularisierung festgelegt...

Gelingt es, durch die Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen in allen Ordnungen der Störungstheorie zu beseitigen, so ist die jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells wurde von ’t Hooft bewiesen.

Bevor Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen zunächst die bei der Berechnung der Schleifenintegrale auftretenden Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt der inneren Symmetrien der Theorie).

Durch die dimensionale Regularisierung werden die auftretenden Divergenzen in negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels Renormierung wird dann die Abhängigkeit von diesem unphysikalischen Parameter subtrahiert und der Zusammenhang zwischen den im Modell auftretenden freien Parametern und den experimentell bestimmbaren physikalischen Größen neu festgelegt. In der Praxis werden dazu so genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen und systematischen Zugang zur Renormierung bieten. Dabei werden die ”nackten“ Parameter (m0, e0) und Felder (Φ0) der Lagrange-Dichte mittels Renormierungskonstanten Zi multiplikativ renormiert.

Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die Renormierungskonstanten so gewählt, dass die renormierten Parameter der Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt. Werden alle Größen im On-Shell Schema bestimmt und erfolgt die Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron im Grenzfall eines verschwindenden Impulsübertrags), so hängt das endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten Massenskala ab.

Neben den UV-Divergenzen aus der Region großer Schleifenimpulse qi → treten in Quantenfeldtheorien sowohl innerhalb der Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf ihrer Massenschale liegen und dadurch der Nenner des Propagators Null wird. Daher werden diese Singularitäten im Allgemeinen als Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden der äußeren und inneren Massen verbunden ist. Das Auftreten von Massensingularitäten rührt nicht ausschließlich von Schleifenintegralen her, sondern auch von Integrationen im Phasenraum der externen Teilchen. Diese führen in bestimmten Phasenraumbereichen zu Divergenzen...

Zur Kenntnisnahme, Selbstanalyse, zur Erinnerung

Das "zauberhafte" fine-tuning   ... die an den Haaren herbeigezogene Feinabstimmung

Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgs-Masse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgs-Masse mH ~ 125 GeV führt zu der Situation, dass sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn!!!) Nachkommastellen genau aufheben müssen!

 

[17]  Wikipedia "berichtet" zur Orientierung (für das "Gemeine Volk") zum fine-tuning "passenden" Hierachieproblem u.a.

[deutsche:] ..."Auch wenn das Higgs-Boson zentraler Bestandteil des Standardmodells der Elementarteilchenphysik ist, ist das Hierarchieproblem kein Problem des Standardmodells selbst... Streng genommen kann das Hierarchieproblem innerhalb des Standardmodells nicht einmal formuliert werden, da eine Berechnung der Higgs-Masse dort nicht möglich ist....

[englische:] ..."Angenommen, ein physikalisches Modell benötigt vier Parameter, die es ihm ermöglichen, ein sehr hochwertiges Arbeitsmodell zu erstellen, das Vorhersagen zu einigen Aspekten unseres physikalischen Universums ermöglicht. Angenommen, wir finden durch Experimente heraus, dass die Parameter Werte haben: 1,2, 1,31, 0,9 und 404.331.557.902.116.024.553.602.703.216,58 (ungefähr 4×1029). Wissenschaftler mögen sich fragen, wie solche Zahlen zustande kommen. Besonders neugierig sind sie aber auf eine Theorie, bei der drei Werte nahe bei eins liegen und der vierte so unterschiedlich ist, d. h. auf das enorme Missverhältnis, das zwischen den ersten drei Parametern und dem vierten zu bestehen scheint. Man könnte sich auch fragen, wenn eine Kraft so viel schwächer ist als die anderen, dass sie einen Faktor von 4×1029 benötigt, um mit ihnen in Bezug auf die Auswirkungen in Beziehung gesetzt werden zu können, wie kam es dann dazu, dass unser Universum bei der Entstehung seiner Kräfte so genau ausgeglichen war? In der gegenwärtigen Teilchenphysik sind die Unterschiede zwischen einigen Parametern viel größer als dieser Wert, so dass die Frage noch bemerkenswerter ist"...

..."Suppose a physics model requires four parameters which allow it to produce a very high-quality working model, generating predictions of some aspect of our physical universe. Suppose we find through experiments that the parameters have values: 1.2, 1.31, 0.9 and 404,331,557,902,116,024,553,602,703,216.58 (roughly 4×1029). Scientists might wonder how such figures arise. But in particular, might be especially curious about a theory where three values are close to one, and the fourth is so different; in other words, the huge disproportion we seem to find between the first three parameters and the fourth. We might also wonder if one force is so much weaker than the others that it needs a factor of 4×1029 to allow it to be related to them in terms of effects, how did our universe come to be so exactly balanced when its forces emerged? In current particle physics, the differences between some parameters are much larger than this, so the question is even more noteworthy."...

 

Nun, das das nichts mehr mit exakter Wissenschaft, sondern nur noch mit brachialem Wünsch-Dir-Was-Denken und Wünsch-Dir-Was-Machen, egal zu welchem absurden Preis, zu tun hat, steht - analytisch rational betrachtet - außer Frage.

Aphoristisch ausgedrückt:

Teilchenphysiker stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömen sie noch begeisterter zu: dem baren Unsinn.“

"Interdisziplinär" erst-formuliert"Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu: dem baren Unsinn.“ Theodor Fontane  (1819 - 1898)

Es gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung, deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig den Fokus verschieben würde.

Um es kurz und plakativ "zu machen": So definierte sich in den Anfängen bis heute insbesondere die Quantenelektrodynamik (QED) und die Quantenchromodynamik (QCD). Es wird solange (mathematisch) modelliert, bis die gewünschten Ergebnisse vorliegen, was mitunter - trotz "Super"-Computern - Jahre (total calculation time, GPU hours) dauert.

Des Weiteren: Es kommt noch "viel schlimmer". Wie sich im Bild der Masse-Raum Kopplung zeigt, sind die vermeintlich »anomalen magnetischen Momente« allesamt - phänomenologisch begründet - ohne Quantenfeld, willkürlicher Renormalisierung, etc. erklär- und berechenbar. All' die "schönen" quantenfeldtheoretischen Überlegungen zu den »anomalen magnetischen Momenten« sind - im wahrsten Sinne des Wortes - gegenstandslos.

An dieser Stelle nur soviel dazu: Die vermeintlich anomalen intrinsischen magnetischen Momente von Elektron und Proton sowie des Masse-Raum-Proton-Elektron-basierenden Neutrons sind letztendlich eine Kombination aus den »semi-klassisch«  - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird, herrühren. Eine entsprechende  Phänomenologie und Formalisierung der Magnetfeldverkörperung und resultierende Magnetische-Moment-Berechnungen werden im Rahmen der Elementarkörpertheorie vorgestellt.   

 

Experimentelle Seite

Im heutigen Standardmodell orientierten Denken werden theoretische Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretierenSME

 

[SME] Der LHC (LargeHadronCollider) ist darauf ausgelegt, Protonen auf Energien von 7 TeV zu beschleunigen und so Kollisionen mit einer Schwerpunktsenergie von 14 TeV zu ermöglichen. Zur Auswertung dieser Ereignisse, mit denen das postulierte Quark-Gluon-Plasma untersucht werden soll, ist das ALICE-Experiment konstruiert. Das eigentliche Verständigungsproblem beginnt schon viel früher. Der Begriff Plasma ist bezogen auf die Theorieobjekte Quark und Gluon falsch. Die gemäß SM postulierten Quarkmassen ergeben in der Summe bei weitem nicht die Nukleonenmassen. Gluonen sind postuliert masselos.

           

Postulierte Up-Quark Masse: 2.3±0.7 ± 0.5 MeV/c² up (u)

Postulierte Down-Quark Masse: 4.8±0.5 ± 0.3 MeV/c² down (d)

938,272 0813(58) MeV/c² Protonmasse  duu  ~ 0,8  – 1,2 % (!!!) Quarksmassenanteil

939,565 4133(58) MeV/c² Neutronmasse ddu ~ 1,1  – 1,4 % (!!!) Quarksmassenanteil

Daraus folgt u.a. : Nicht gemäß einer Meinung, sondern nach dem Kenntnisstand und den Postulaten des SM kollidieren bei Teilchenkollisionen also hauptsächlich phänomenologisch unbestimmte beschleunigte Energiepakete sprich Bindungsenergien und hauptsächlich äußere Energie miteinander, von Elementarteilchenmassen existiert so gut wie keine »Spur«.

L(arge)H(adron)C(ollider) Informationen zur Kenntnisnahme und Selbstanalyse

LHC Datenverarbeitung ...von den ursprünglich 40 Millionen Strahlkreuzungen werden nur ca. 200 pro Sekunde gespeichert und für eine Analyse bereitgestellt...

Kollisionssimulationen   ...aus bestehenden Theorien werden Hypothesen aufgestellt, wie beispielsweise eine Erweiterung der Theorie aussehen könnte. Dann werden Detektorsimulationen berechnet, wie eine Teilchensignatur unter diesen hypothetischen Annahmen, bei einer Teilchenkollision aussehen müsste. Dann folgt der Vergleich. Pythia, die weissagende Priesterin im Orakel von Delphi ist Namensgeberin für ein Computerprogramm, das verwendet wird, um Kollisionen an Teilchenbeschleunigern zu simulieren.…

Wie sich SM-Gläubige die Entstehung der physikalischen Welt aus dem Urknall vorstellen, siehe den Abschnitt Was bisher geschah…“auf“ der „HOME“page

                  

Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. 

Brigitte Falkenburg schreibt in Particle Metaphysics: A Critical Account of Subatomic Reality (2007) u.a.

"Es muss Schritt für Schritt transparent gemacht werden, was Physikerinnen und Physiker selbst als empirische Basis für das heutige Wissen der Teilchenphysik ansehen. Und es muss transparent sein, was sie im Einzelnen meinen, wenn sie von subatomaren Teilchen und Feldern sprechen. Die Weiterverwendung dieser Begriffe in der Quantenphysik führt zu ernsthaften semantischen Problemen. Die moderne Teilchenphysik ist in der Tat der härteste Fall für Inkommensurabilität im Sinne Kuhns"....

..."Schließlich ist die Theorieabhängigkeit ein schlechtes Kriterium, um zwischen sicherem Hintergrundwissen und unsicheren Annahmen oder Hypothesen zu unterscheiden."

... "Die subatomare Struktur existiert an sich nicht wirklich. Sie zeigt sich nur in einem Streuexperiment mit einer bestimmten Energie, also aufgrund einer Wechselwirkung. Je höher der Energietransfer bei der Wechselwirkung ist, desto kleiner sind die gemessenen Strukturen. Hinzu kommt, dass nach den Gesetzen der Quantenfeldtheorie bei sehr hohen Streuenergien neue Strukturen entstehen. Die Quantenchromodynamik (d. h. die Quantenfeldtheorie der starken Wechselwirkung) besagt, dass je höher die Streuenergie ist, desto mehr Quark-Antiquark-Paare und Gluonen im Inneren des Nukleons entstehen. Nach dem Modell der Streuung in diesem Bereich führt dies wiederum zu Skalierungsverletzungen, die tatsächlich beobachtet wurden.44 Dies wirft ein neues Licht auf Eddingtons alte Frage, ob die experimentelle Methode zur Entdeckung oder zur Herstellung führt. Offenbart die Wechselwirkung bei einer bestimmten Streuenergie die gemessenen Strukturen oder erzeugt sie diese?

44 Perkins 2000, 154; Povh et al 1999, 107 - 111

...“Es ist nicht möglich, einen gemessenen Querschnitt auf seine individuelle Ursache zurück zu führen. Keine Kausalgeschichte setzt einen gemessenen Formfaktor oder eine Strukturfunktion mit seiner Ursache in Beziehung“...

...“Mit den in Teilchenbeschleunigern erzeugten Strahlen kann man weder in das Atom hineinschauen, noch subatomare Strukturen sehen, noch punktförmige Strukturen im Inneren des Nukleons beobachten. Solches Gerede ist metaphorisch. Das einzige, was ein Teilchen sichtbar macht, ist die makroskopische Struktur des Targets“... 

...“Niels Bohrs Quantenphilosophie... Bohrs Anspruch war, dass die klassische Sprache unverzichtbar ist. Dies hat bis heute Gültigkeit. Auf der individuellen Ebene von Klicks in Teilchendetektoren und Teilchenspuren auf Fotos müssen alle Messergebnisse in klassischen Begriffen ausgedrückt werden. Die Verwendung der bekannten physikalischen Größen Länge, Zeit, Masse und Impuls-Energie auf subatomarer Ebene ist in der Tat auf eine Extrapolation der Sprache der klassischen Physik auf den nichtklassischen Bereich zurückzuführen.“

"It must be made transparent step by step what physicists themselves consider to be the empirical basis for current knowledge of particle physics. And it must be transparent what the mean in detail when the talk about subatomic particles and fields. The continued use of these terms in quantum physics gives rise to serious semantic problems. Modern particle physics is indeed the hardest case for incommensurability in Kuhn’s sense."

…After all, theory-ladenness is a bad criterion for making the distinction between safe background knowledge and uncertain assumptions or hypotheses. 

… Subatomic structure does not really exist per se. It is only exhibited in a scattering experiment of a given energy, that is, due to an interaction. The higher the energy transfer during the interaction, the smaller the measured structures. In addition, according to the laws of quantum field theory at very high scattering energies, new structures arise. Quantum chromodynamics (i.e. the quantum field theory of strong interactions) tells us that the higher the scattering energy, the more quark antiquark pairs and gluons are created inside the nucleon. According to the model of scattering in this domain, this give rise once again to scaling violations which have indeed observed.44 This sheds new light on Eddington’s old question on whether the experimental method gives rise to discovery or manufacture. Does the interaction at a certain scattering energy reveal the measured structures or does it generate them?

44 Perkins 2000, 154; Povh et al 1999, 107 – 111

…It is not possible to trace a measured cross-section back to its individual cause. No causal story relates a measured form factor or structure function to its cause…

…With the beams generated in particle accelerators, one can neither look into the atom, nor see subatomic structures, nor observe pointlike structures inside the nucleon. Such talk is metaphorical. The only thing a particle makes visible is the macroscopic structure of the target…

…Niels Bohr’s quantum philosophy…Bohr’s claim was that the classical language is indispensable. This has remained valid up to the present day. At the individual level of clicks in particle detectors and particle tracks on photographs, all measurements results have to expressed in classical terms. Indeed, the use of the familiar physical quantities of length, time, mass and momentum-energy at a subatomic scale is due to an extrapolation of the language of classical physics to the non-classical domain."

 

In der modernen Physik geht es bei genauer Betrachtung häufig um die Bewahrung bestehender Denk-Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind nahezu ausnahmslos Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet(e).

Wie wir alle tendieren auch die (theorieaffinen) Experimentatoren dazu, einen Misserfolg bewusst sowie unbewusst zu vermeiden und weichen einer Widerlegung ihres Theorie beladenen Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird oft vom Wesentlichen abgelenkt. Moderne Theorien basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich nicht selten in theorierelevanten Experimenten, "früher oder später", als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Theorie-Korrekturen vorgenommen. Das können beispielsweise Postulate über neue virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik ignoriert.

In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ festen Glaubens sind, Quantenfeldtheorien wären experimentell überprüfbare, innovative theoretische Konzepte, die praktische Anwendungen generier(t)en.

 

 

[ FKK   "Formalisierung ist nicht »Alles«"      Frau Kunst Kater  c-print     adf ]

 

 

 

 

SM steht übrigens nicht nur als Abkürzung für das Standardmodell der Teilchenphysik sondern auch für Sadomasochismus, sowohl im Deutschen als auch im Englischen. In beiden Fällen besitze ich u.a. exzellente analytische, theoretische, kritische sowie ("angesiedelte") gestalterische Fähigkeiten, wie noch später ergänzend erörtert wird.  

 

 

 

 

 

Interdisziplinäres

Auch wenn vermeintlich berechtigt kritisiert werden könnte, das teils sehr ausführliche menschliche, geschichtliche und politische Aspekte im Folgenden nicht zum Kern-Thema der Ausführungen eines Paradigmenwechsels gehören (sollten), so ist diese Kritik " jedoch zu kurz gedacht", denn Wissenschaft war und ist ein Abbild gesellschaftlich-sozialer Macht-Verhältnisse. Kirche und Staat (früher auch Herrscher, wie Kaiser, Könige und der angesiedelte Adel) finanzier(t)en, einst wie heute, insbesondere die Denkmodell-Wissenschaft.  Wobei seit Jahrzehnten »"moderne" Theorien« fast ausschließlich durch öffentliche Mittel der steuerzahlenden Allgemeinheit finanziert werden.

                                                                        

Zusätzliche (allgemeine/interdisziplinäre) Ausführungen sind mit gekennzeichnet.

Letztendlich entscheidet jeder selbst, ob fragmentarisch eingefügte, begleitende Inhalte gelesen werden, die nicht unmittelbar mit der Physik und Mathematik der Standardmodelle und dem Prinzip der Parsimonie zusammenhängen. Im Zweifelsfall ist »Scrollen« immer möglich.

 

 

Geschichtlicher »fun fact« mit weitreichenden Konsequenzen

Als Peter Higgs (1929 - 2024) 1964 "seinen" »Higgs-Mechanismus« vorstellte befand er sich in der »LSD-Flower-Power-Zeit« deren damalige wissenschaftliche Zeitgeist-Bewertung von Protagonisten wie dem Wissenschaftsphilosophen Paul Feyerabend (1924 - 1994) geprägt waren, dessen Idee von Wissenschaft lautete: "Anything goes". Das erklärt möglicherweise warum Higgs seine, aus Standardmodellsicht "bahnbrechenden", Ausführungen mit irrealen Tachyonen startete.

[Tachyonen (altgr. ταχύς tachýs ‚schnell‘) sind hypothetische Teilchen, die sich schneller als mit Lichtgeschwindigkeit (superluminar) bewegen. Es gibt offensichtlich keine experimentellen Hinweise, dass solche Teilchen existieren.]

Higgs Irrationalität war damals gern gesehen, Peter Higgs war sozusagen ein Wissenschafts-Avantgardist im Sinne Feyerabends.

Feyerabend passt zu Feierabend mit der Bedeutung, die eigentliche Arbeit ist beendet. Rückblickend kreierte und lebte Peter Higgs im wissenschaftlichen Feierabend, bedeutet, phänomenologisch, rational begründete Denkmodellphysik-Arbeit fand fortan nicht mehr statt.

Auch das in den 1960er Jahren von Richard Feynman (1918 - 1988) entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann (1929 - 2019) und George Zweig (geboren 1937) postulierten Quarks identifiziert.

Auch hier ist die Grundlage irrational, denn der daraus resultierende mathematische Ansatz des Standardmodells der Teilchenphysik (SM), ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Masselose Eichbosonen bewegen sich gemäß Formalismusforderung mit Lichtgeschwindigkeit.  Das SM beschreibt Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen).

Parametrische Glaubensbekenntnisse

Die "moderne" Elementarteilchenphysik "nährt(e)" sich von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin wird so "kreativ" postuliert, "entdeckt" und "modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der eigenen Grenzen bestätigt, ist keine große Überraschung, da die Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um "alte" Thesen und Teilchen zu "retten".

Zurück zum Higgs-Mechanismus...

Folgender Sachverhalt wird kaum thematisiert bzw. "teilweise verschwiegen": Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms.  

Die geforderten Eigenschaften des Higgs-Feldes sind u.a.:

»Higgs-Teilchen« sind Bosonen, weil nur dann eine kohärente Wellenfunktion möglich ist. Aus dem gleichen Grund müssen »Higgs-Teilchen« untereinander wechselwirken. Das Higgs-Feld ist skalar, um die Symmetrie des Vakuums zu erhalten. Im vorliegenden Fall der U(1)em- Eichtheorie muß das Feld geladen sein, um an das Photon zu koppeln. Das Higgs-Feld erfüllt die Klein-Gordon-Gleichung:

Man postuliert, dass sich das Higgs-Feld im Grundzustand mit einem Vakuumerwartungswert IΨ0I² = const ≠ 0 befindet. Die Forderung eines im Grundzustand nicht verschwindenden Erwartungswertes ist nicht trivial und kann nur mit einer Selbstwechselwirkung des Feldes "erfüllt" werden.

Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Im Verlauf dieser mathematischen Prozedur zeigt sich, dass ein weiteres masseloses Vektorboson, dass so genannte Goldstone-Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

Des Weiteren gilt jedoch zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus.

Wir sparen uns den komplexen »Mexican hat« und reduzieren die »spontane Symmetriebrechung« auf eine zweidimensionale "Anschauung":  

[ Graphen Vakuum-Erwartungswerte (0)   v : spontane Symmetriebrechung ]  in Abhängigkeit von V und  f(μ)

 

 

Die vier Komponenten des Isospin-Dublett-Ansatzes "liefern" letztendlich drei Vektorbosonen mit einer longitudinalen Spinkomponente und ein skalares Higgs-Feld. Damit das Photon masselos bleibt, wird in diesem Fall der Vakuumerwartungswert (wieder) auf Null "gesetzt". Die "restlichen" Masseterme werden dann von der "neutralen" Komponente mit nichtverschwindenden Erwartungswert erzeugt. Nach (mathematischer) "Umordnung" ergibt sich die eichinvariante SU(2) x U(1) - Lagrange-Dichte mit den "gewünschten" Massentermen für das Higgs- und die Eichbosonen.

Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasiewünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß (anerkannter) Neutrinooszillationen - endliche Massen besitzen. Die theoretische Forderung läuft ins Leere, denn die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. 

Später mehr zum Higgs-Mechanismus, SM, Higgs-Boson und anderen unbrauchbaren »Kleinigkeiten»...

 

 

Allgemeine Hinweise: Leider halten sich auch Lehreinrichtungen - hier und da - nicht an gängige Informationsstandards. Das bedeutet, dass beispielsweise die eine oder andere Universität „Links“ ohne Angabe von Gründen („plötzlich“) löscht. Das ist insbesondere unter dem Aspekt von aussageunterstützenden Quellenangaben „sehr unschön“. Gegebenenfalls muss der Leser selbst mittels geeigneten Suchbegriffen eine neue „Verknüpfung“ herstellen.

 

 

 

Lassen wir   - schon hier und jetzt -    "die Katze aus dem Sack"...

Erweiterung des Energieerhaltungssatzes

Die im Folgenden "beschriebene" Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist. Bedeutet: Das sich Masse in Raum und Raum in Masse transformieren lässt.

 

Herleitung des erweiterten Energieerhaltungssatzes

 

Weiterführend resultiert, aus der Energie-Gesamtbetrachtung, das (auch) Information eine Energieform ist.

Experimentelle Sachlage

An dieser Stelle sei bereits bemerkt, das alle - und ich meine wortwörtlich alle - bekannten Experimente zur Natur der Materie und deren Wechselwirkungen die Materie-Raum Kopplung bestätig(t)en. Das war weder im Rahmen der Quantenmechanik (QM) noch im Rahmen der Relativitätstheorie (RT) und folgend unter dem Denk-Dogma der Standardmodelle, mit dem Postulat eines Materie entkoppelten Raumes und dem postulierten Neutrino als nahezu nicht wechselwirkenden Energieträger, erkennbar. Es konnte offensichtlich nicht einmal gedacht werdenNB.

 

[NB] Obwohl, ...Niels Bohr (1885 - 1962) äußerte 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

   Kernphysik-Kongress                                                       Rom    Oktober 1931

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand. Die Anwesenheit der bedeutendsten Wissenschaftler auf dem Gebiet der Kernphysik verlieh der Veranstaltung große wissenschaftliche Bedeutung.

Einige der Themen, die auf der Konferenz diskutiert wurden, waren: - Die Struktur und die Eigenschaften von Atomkernen - Die Natur und der Ursprung der kosmischen Strahlung - Die künstliche Transmutation von Elementen - Die Emission von Strahlung durch leichte Kerne - Die Quantentheorie der Kernphänomene - Die Anwendungen der Kernphysik in der Medizin und der Industrie. Die Konferenz hatte auch einen bedeutenden Einfluss auf die Entwicklung der Kernphysik in Italien, da Fermi und seine Gruppe junger Mitarbeiter (bekannt als die Via Panisperna-Jungs) ihre Forschungen über neutroneninduzierte Reaktionen fortsetzten, was 1934 zur Entdeckung der Kernspaltung führte.

 

 

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab.

                      

Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

                  

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte* Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.

 

*In der Elementarkörpertheorie ist die Zeit eine Variable ohne Substruktur, bedeutet u.a. Zeit ist nicht dilatierbar. Phänomenologisch: Zeitdilatation ist genauso wenig vorstellbar wie die Krümmung eines dreidimensionalen Raumes. Physik wird hier in einem dreidimensionalen, sinnlich vorstellbaren Raum beschrieben, die sich auf Grund der Radialsymmetrie variablenreduziert mit Hilfe des Radius »konstruktiv beschreibungsverarmt« abbilden und formalisieren läßt.

                                             

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten Masse-Radius gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.

 

Masse-Radius-Konstanten-Gleichung

Einfache Herleitung der Masse-Radius-Konstanten-Gleichung [F1]

Betrachten wir das Plancksche Wirkungsquantum h als kleinste skalare Wirkung, so hat diese Wirkung die Dimension Energie mal Zeit. Diese Aussage ist nicht trivial, da das Plancksche Wirkungsquantum auch der kleinsten Wirkung des axialen Drehimpulsvektors entsprechen könnte. Division durch die Zeit ergibt eine Energie. Setzen wir für die Energie, die Masse abhängige Ruhe-Energie E0 = m0c² ein, so ergibt sich für jede Ruhe-Masse eine spezifische Zeit t(m0). Diese Zeit lässt sich auch durch die Comptonwellenlänge λ0 der Ruhemasse ausdrücken.

 

t(m0) = h/(m0c²) = λ0/c   [tm0]

 

Betrachten wir nun die Elementarkörper-Entwicklungsgleichung r(t) = r0·sin(ct/r0):

Der Elementarkörper ist dann voll ausgebildet, wenn der Sinus von (ct/r0) gleich eins ist, dass ist für (ct/r0) = π/2 der Fall. Daraus resultiert eine vom maximalen Elementarkörper-Radius r0 abhängige Entwicklungszeit t0... 

t0= (π/2)(r0/c)   [tr0]

Gleichsetzen von t(m0) und t0

oder "etwas anders" betrachtet:

Elementarkörper und Masse-Radius-Konstanz aus Vergleich mit kleinster skalarer Wirkung [h]

Die Elementarkörpergleichung r(t) führt zum Elementarkörper mit der assoziierten Elementarkörper-Entwicklungszeit ∆t.

Die Gesamtenergie des Elementarkörpers mit r(t) = r0 ist ∆E = m0

Betrachten wir das Planck'sche Wirkungsquantum h als kleinste skalare Wirkung, so hat diese Wirkung die Dimension Energie mal Zeit.

               

 

Licht & Materie

Eine grundsätzliche Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0·sin(c ·t/r0) und m(t) = m0·sin(c·t/r0) leisten genau das.

   

         Information als materieller Zustand = Elementarkörper                    Zustand als Information = Photon

         

 

Historisches

Bereits Isaac Newton äußerte sich 1717* zur Umwandlung von Licht in Materie und umgekehrt,...

"Sind Körper und Licht nicht ineinander umwandelbar, und können Körper nicht viel von ihrer Aktivität von den Lichtteilchen empfangen, die in ihre Zusammensetzung eindringen? Die Umwandlung von Körpern in Licht und Licht in Körper ist sehr anpassungsfähig an den Verlauf der Natur, diese scheint begeistert von den Umwandlungen zu sein"

"Are not gross bodies and light convertible into another, and may not bodies receive much of their activity from the particles of light which enter their composition? The changing of bodies into light and light into bodies is very conformable to the course of Nature, which seems delighted with transmutations."

* Newton , I. (1717) Opticks, or, a Treatise of the Reflections, Refractions, Inflections and Colours of Light, Query 30.

 

Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der raumgekoppelten Materie-Energie-Verkörperung.

 

 

Standardmodell-Irrglaube

Aus Sicht einer nur an Masse gekoppelten Energie, erschien respektive erscheint den so Denkenden, dass  - insbesondere bei TeilchenzerfällenTZ - bezüglich der Massenbilanz, Energie verloren gegangen ist. Daraus resultierte (fatalerweise) die Neutrinothese.

 

[TZ] "Randbemerkung" zum SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall, obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik (SM).

 

Des Weiteren... Auch der von der Standardphysik gebräuchliche Begriff Grundkraft ist irreführend, da es sich im Rahmen des Standardmodells der Kosmologie (ΛCDM-Modell) bei der Gravitation um Gleichungssysteme (Einstein, Friedmann) handelt, die in einem mechanischen Sinne keine Kraft beschreiben. Die Schwache und Starke Wechselwirkung sowie die elektromagnetische Wechselwirkung des Standardmodells der (Elementarteilchen-)Physik (SM) sind gleichfalls erst einmal masselose, "kraftlose", rein mathematische Gebilde.

 

 

Neutrino-Propaganda    Bereits Kindern und Jugendlichen wird von der Spektrum der Wissenschaft Verlagsgesellschaft mbH in Zusammenarbeit mit diversen Partnern "eingetrichtert", dass 1,8 · 1038 Neutrinos pro Sekunde die Sonne verlassen. (http://www.wissenschaft-schulen.de/sixcms/media.php/1308/neutrinos1.pdf) Von denen etwa 640 Billionen pro Sekunde und (Erdoberflächen-)Quadratmeter (ohne Auswirkung!) durch die Erde strömen.

Tatsache ist jedoch: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen, wie noch später mehrfach erörtert wird. 

 

Konsequenzen der beobachtbaren Masse-Raum Kopplung

Bei allen "Teilchenzerfällen" (richtiger Teilchenumwandlungen) wird masse-abhängige Energie in raum-abhängige Energie umgewandelt. Der Energieerhaltungssatz der herrschenden Physik ist schlicht falsch, da dieser nur an Masse gekoppelte Energie berücksichtigt.

Was in allen Umwandlungs-Experimenten beobachtet wird, ist eine Abnahme der Masse. Die Beobachtung ist in voller Übereinstimmung mit der Masse-Raum gekoppelten Gesamt-Energiebilanz.

Die Neutrinothese und die darauf aufbauende Schwache Wechselwirkung sind gegenstandslos. Somit kollabiert das assoziierte Standardmodell der Teilchenphysik (SM).

 

In den folgenden Gesamtausführungen wird u.a. argumentativ begründet und experimentell bestätigt, dass es keine Neutrinos gibt.

                                                            

Die Neutrino-These ist haltlos und wurde bzw. wird - bei detaillierter, genauer Betrachtung - auch experimentell nicht bestätigt.

Warum die Materie-Raum Kopplung - wortwörtlich - als naheliegende omnipräsente Versuchsinterpretation nicht von den Experimental- sowie Theoretischen Physikern »(SM) theoriebeladen« wahrgenommen wurde, ist somit zum Standard-Modell-Verständnis der Physik (zwingend) "Gegenstand" des Folgenden. 

 

Neutrino-Psychologie

Hier haben wir eine konkrete Situation vorliegen, die äußerst schwer zu „verkraften“ ist. Psychologisch erst einmal nahezu unlösbar, weil sich so gut wie niemand vorstellen kann, dass eine tragende Hypothese eines über Jahrzehnte etablierten Denkmodells nachweislich falsch ist und als solche nicht korrigiert wurde. Zigtausende, gut ausgebildete Wissenschaftler über mehrere Generationen leben und arbeiten mit einer gravierenden Falschaussage? Viele Theoretische Physiker, insbesondere des SM, werden ungesehen der Argumente die Behauptung, das es keine Neutrinos gibt, gar nicht wahrnehmen wollen.

Auch Laien und Physiker, die nicht mit dem Formalismus des SM vertraut sind, können sich schlicht nicht vorstellen, dass dies möglich ist. Man unterstellt dem kritischen Betrachter, der auf die nachweisbaren Zusammenhänge aufmerksam macht, dass dieser etwas übersehen hat, emotional begünstigt durch den Umstand, dass man ja selbst nicht über die nötige mathematisch-formale Sachkenntnis verfügt. Das sind äußerst schwierige Randbedingungen aus Sicht realitätssuchender Aufklärung.

Es ist erst einmal davon auszugehen, dass sowohl die Protagonisten der Standardmodelle sowie deren Apologeten, Epigonen und Fans, die »Neutrino-Nichtexistenz« als Hirngespinst eines Außenseiters (im heutigen Sprachgebrauch auch als Verschwörungstheoretiker benannt und bekannt) ablehnen. Es liegt außerhalb ihrer Vorstellungskraft, dass Neutrinos nicht existieren. Nützen wird ihnen diese Haltung perspektivisch jedoch nichts, da die Masse-Raum Kopplung souverän mit plausibler, phänomenologisch begründeter »formaler Leichtigkeit« und experimentell bestätigt, letztendlich genauso „wirkt“, wie einst das »Heliozentrische Weltbild« gegenüber der »Geozentrik«.

Die experimentellen Sachverhalte waren zu jedem Zeitpunkt allen bekannt. Es war und ist somit, insbesondere aus rational-analytischer Sicht, äußerst befremdlich, warum die »Gemeinde« der Physiker vollkommen irrational diese ausblendet(e).

Der Begriff »Gemeinde« ist hier nicht zufällig gewählt. Physiker agier(t)en wiederholt als religiös Gläubige, wie noch erörtert wird.

Um das Neutrino-Existenz-Problem argumentativ verständlich zu machen, ist es sehr wichtig eine der absurdesten (Fehl-)Interpretationen der "Modernen" Physik nachhaltig verstehen zu können.

Warum  es  keine  Neutrinos  gibt

[Auf diesen extrem wichtigen experimentell basierenden respektive meßtechnisch bestätigten Aspekt wird etwas später im Text nochmals "unter" »Warm up"  zum  Paradigmenwechsel« explizit hingewiesen. Also erst die Information hier aufrufen oder erst einmal weiterlesen, ist letztendlich »leser-optional«.] 

 

 

Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des  »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

"Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger (1921 - 2011)

 

 

Themeneinstieg(s)verschachtelung

Die Sachsituationen als solche sind zwar aus analytischer Sicht  - argumentativ begründet, sowohl theoretisch als auch experimentell - relativ einfach zu verstehen. Die "Schwierigkeiten" kommen hier mit den zahlreichen Möglichkeiten, einen Anfang zu machen. Für ergebnisoffene, professionelle »Physiktreibende« stellt sich die Situation  - u.a. im Hinblick auf die initiale Grundlagenvermittlung - anders da, als für Interessierte ohne Fachwissen.

In beiden Fällen bleibt jedoch - auch dann noch, die Beliebigkeit der Reihenfolge.

Ich könnte dem neugierigen, ergebnisoffenen Theoretischen Physiker, ohne viele Worte zu machen, beispielsweise anhand von direkten Vergleichsaspekten der Herleitungen und Formalisierungen und den daraus resultierenden Voraussagemöglichkeiten, direkt aufzeigen, warum die Standardmodelle im Sinne des »Prinzips der Parsimonie« Verlierer sind.

Um den gleichen Sachverhalt »mit Theoretischer Physik weniger "ausgestatteten" Lesern«, zu vermitteln, bedarf es erst einmal exemplarischer Bewusstseinsmachungen, u.a. wie beliebig und aussagelos die Standardmodelle bei genauer Sicht eigentlich sind.

Der folgende »Mittelweg« zum Verständnis des notwendigen Paradigmenwechsels ist so gestaltet, dass »hier und da« punktuell entschieden werden kann, was zum Erstverständnis gelesen wird. Es folgen zu allen wichtigen Aspekten des Denkmodells Wiederholungen im Folgetext.   

 

 

"Warm up"  zum  Paradigmenwechsel

respektive

"Vorspiel" - Gedanken zum Paradigmenwechsel

...noch dürfen Protagonisten, Epigonen und Apologeten der Standardmodelle hoffen,

dass es sich hier nur um einen Meinungsartikel oder gar Satire handelt...

Der Paradigmenwechsel

ein überfälliges Rendezvous mit ursächlicher Rationalität

Da Mathematik nicht zwischen Staub und Staubsauger unterscheiden kann, ist in einem allgemein verständlichen Denkmodell Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

 

In der Mathematik versteht man die Dinge nicht. Man gewöhnt sich einfach an sie.“  John von Neumann (1903 – 1957)

Soweit sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher; und soweit sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit."  Albert Einstein (1879 - 1955)

Ich bin der Meinung, dass wir überhaupt keine eindeutigen physikalischen Konzepte haben, wenn wir nur funktionierende mathematische Regeln anwenden; das ist nicht das, womit der Physiker zufrieden sein sollte."  Paul Dirac (1902 – 1984)

 

Des Weiteren: Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend phänomenologischer Betrachtungen und Erklärungen.

Menschen im Allgemeinen und Wissenschaftler im Speziellen sind geprägt durch historisch entstandene Denknormen. Hin und wieder ändern sich diese, wie am Anfang des 20.Jahrhunderts. Relativitätstheorie (RT) und Quantenmechanik (QM) bilden seit nun mehr als 100 Jahren die, zwar wenig anschauliche, aber formale Denk-Grundlage für die physikalische Theorie-Welt. Insbesondere die Voraussagefähigkeiten der Quantenelektrodynamik (QCD) sowie der Quantenelektrodynamik (QCD) sollen ein "sehr gutes" Argument für die "Richtigkeit" dieser Theorie(n) sein. Doch das diese Voraussagefähigkeiten, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, wissen viele nicht respektive erschließt sich den meisten Interessierten nicht. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und Substrukturthesen. Dies führte letztendlich u.a. zur Fragmentierung der elektrischen Elementarladung (siehe Quarks), die jedoch experimentell nie als solche fragmentiert in Erscheinung trat und tritt.

Wie sehen die Standardmodell-Ergebnisse wirklich aus?

Sparen wir uns an dieser Stelle erdachte Details, wie Gluonenpostulat, die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) oder die Quark-Antiquark-Paar-These, so stellen wir fest, dass Quarks-Massen nur etwa 1% der Nukleonenmassen (Proton, Neutron) ausmachen. Der "Rest" ist unbestimmte Bindungsenergie. Das bedeutet, dass nach dem bekannten Masse-Energie-Äquivalenzprinzip Nukleonen fast gesamtheitlich aus phänomenologisch unbestimmter Bindungsenergie bestehen.

Mit den Worten Richard Feynmans:

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."

"It is important to realize that in physics today, we have no knowledge of what energy is."

Noch gravierender ist die Tatsache, dass diese (Protonen, Elektronen, Bleikerne, ...) in üblichen Hochenergieexperimenten auf fast Lichtgeschwindigkeit beschleunigt werden, bevor sie kollidieren. Das bedeutet, es kommt zur Bindungsenergie auch noch eine beträchtliche Menge an äußerer Energie hinzu. An dieser Stelle ist das komplexe Glaubensmärchen jedoch noch nicht am Ende. In einem größeren Bild des Kosmologischen Standardmodells (ΛCDM-Modell) wird postuliert, dass die sichtbare Masse wiederum nur einen kleinen Teil der Masse im Universum ausmacht. Größtenteils besteht das Universum für heutige Standardmodell-Gläubige aus »Dunkler Materie« und »Dunkler Energie«. »Dunkel« steht hier für nicht nachweisbar/nicht detektierbar.

Humor ist, wenn man trotzdem lacht. Unter diesen Randbedingungen entbehrt es nicht einer gewissen Ironie respektive Komik, wenn die so begründete Systemphysik von notwendiger Energieerhaltung "spricht".

 

Folgende widersprüchliche Aussagen des Standardmodells der Elementarteilchenphysik (SM) kommen möglicherweise in dieser "Informations-Tiefe" für einige Leser etwas früh, doch lassen sich an dem Neutrino-Beispiel wesentliche Inkonsistenzen und offensichtliche Widersprüche des SM unmißverständlich aufzeigen.

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

 

 

...vom   postulierten »Theorie-Ereignis«            zum               »Zauber-Teilchen für alle Fälle«

 

Ohne das an dieser Stelle bereits im Detail auszuführen, ist (auch) die Neutrinothese eine "energierettende" Hilfserklärung mit weit reichenden, fatalen Konsequenzen. Tatsache ist: Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.

 

 

 

SM-Existenz-Postulate

Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben.

Diese Grundbedingung steht in einem eklatanten Widerspruch zu (dogmatisch anerkannten) Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. Logische Konsequenz: Man "verabschiedet" sich entweder vom Standardmodell der Teilchenphysik-Formalismus oder von massebehafteten Neutrinos. Nur Logik gibt es nicht in den Standardmodellen, wenn diese stört.

Standardmodell-Aussage: …“Neutrinos sind im Standardmodell der Teilchenphysik masselos. Neutrino-Oszillationen erfordern aber Massen und aus dem experimentellen Nachweis der Oszillationen folgt daher, dass das Standardmodell unvollständig ist.“…

Da haben wir es wieder. Die theoretischen Grundlagen sind nicht falsch (wo kämen wir denn da hin), nein, das SM ist "unvollständig". SM-Credo: Was kümmert uns die theoretische Grundlage der postulierten Masselosigkeit (von gestern).

Die Methodik der Zirkelschlüsse ist einfach zu verstehen. Egal was behauptet wird, der Neutrino-Glaube muß aufrechterhalten werden. Bedeutet hier: Unter Berücksichtigung der selbstdefinierten Neutrinobeteiligungen des Standardmodells musste man feststellen, dass die "quantitative" Erwartung des Neutrinoaufkommens nicht beobachtet wird. Man folgerte sodann, dass sich Neutrinos von der Entstehung bis zum "Nachweis" in eine nicht "messbare" andere Neutrinosorte umwandeln. (Pippi Langstrumpf lässt grüßen) Ohne dass an dieser Stelle genauer zu erörtern impliziert diese Annahme, dass Neutrinos eine Masse haben müssen. Den Vorgang der Umwandlung nennt man nicht Neutrinoumwandlung sondern Neutrino-Oszillation, das ist eine der „semantischen Spitzen“ im Rahmen des Verschleierungs-Programms, möglichst vage zu bleiben. Statt also Neutrinos auf Grund des fehlenden experimentellen Nachweises zu entsorgen, wird lieber das theoretische Modell abstrahiert. Diese erkenntnisfeindliche, methodische Programmatik fand schon ihre Anwendung bei den postulierten Quarks (wie später ausgeführt wird).

Da man sich vom Standardmodell nicht trennen will, gibt es im Rahmen mathematischer Ergänzungen stets die Möglichkeit NeutrinomassenNM "irgendwie" einzubauen. Das ist aber nur möglich, da das Konstrukt des SM bei genauer Betrachtung u.a. keinerlei überprüfbare realphysikalische Referenz besitzt, sprich alle SM-assoziierten vermeintlichen Objekt-Nachweise sind indirekte, stark theoriebeladene Versuchsinterpretationen.

 

[NM] erweiterte Neutrinopostulate  Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Massen-Eigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superposition von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt.

Quarks hingegen sind nicht isolierbar, soll heißen, nicht direkt "messbar"QN. Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf Streuquerschnitte "berechnet". Bei der Angabe der Resultate muß sorgfältig unterschieden werden, auf welchen Modellannahmen die Berechnungen beruhen und welches Renormierungsschema verwendet wurde. Die Literatur zum Thema ist entsprechend umfangreich und teilweise schwer zu vergleichen.

[QN] Diese Aussage des SM ist suggestiv irreführend, da Neutrinos auch nicht direkt gemessen werden können.

"Massetragende" Neutrinos können als Dirac- oder Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße, während die Leptonfamilienzahl durch die Neutrinomischung verletzt wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre eigenen Antiteilchen sind. Darüber hinaus ist die Unterscheidung von Dirac- und Majorana-Neutrinos experimentell äußerst schwierig. Majorana-Neutrinos können kein elektrisches oder magnetisches Dipolmoment besitzen, ebenfalls als Folge der Tatsache, dass Majorana-Neutrinos ihre eigenen Antiteilchen sind.

ABER zur Erinnerung: Der »Higgs-Mechanismus« und übergeordnet das Standardmodell der Teilchenphysik schließen Neutrinomassen aus.

 

Einfach ausgedrückt: Egal wie strukturiert »ihr« bisheriger Lieblingswunsch auch ausgesehen haben mag, natürlich können »sie« in ihrer Fantasie aus masselosen massebehaftete Objekte "erdenken". Doch mit den ursprünglichen Thesen und der ursprünglichen (mathematischen) Konzeption ist diese "neue" Idee nicht verträglich. Aber, wie sagt "man" so schön, was stört mich das (eigene) Geschwätz von gestern. Die schwerwiegenden Probleme der Widersprüchlichkeit werden möglichst nicht thematisiert oder einfach ausgeblendet.

 

Neutrino-Oszillationen

...und der Neutrino-Forscher sprach: "mein Wille geschehe, es werde umgewandelt...

…“Das Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln beschrieben. Neutrinomischung kann zu dem Phänomen der Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann ein Neutrino, das als Elektron-Neutrino produziert wurde, beim Detektor mit einer gewissen Wahrscheinlichkeit als Myon-Neutrino beobachtet werden.“… Quelle: Max Planck Gesellschaft 

Neutrinos sind «wildcards par excellence» der Teilchen-Physik. So wie «sie» gebraucht werden, erscheinen «sie». Und wenn «sie» mal nicht erscheinen, dann "mutieren" «sie» nachträglich "theoriegerecht", eleganter ausgedrückt nennt man das Neutrino-Oszillation. Da können religiöse Führer noch eine Menge von dogmatischen Neutrinomachern lernen...

Insgesamt wird der Glaube an Neutrinos und die resultierende Behauptung, Neutrinos würden existieren, damit begründet, dass es trotz der postulierten nahezu ausbleibenden Wechselwirkung, doch entsprechende Neutrinonachweis-Experimente gibt. Aus der Not heraus postulierte Neutrino-Selbst-Umwandlungen, die semantisch verschleiert Neutrino-Oszillationen "getauft" wurden, sind jedoch kein wissenschaftlicher Denk-Fortschritt sondern interdisziplinär eine freche Absage an wissenschaftliche Konzepte. Die vom SM theorieinduzierten "Neutrino-Ruhe-Massenuntergrenzen" von < 2 eV/c² bis < 15,5 MeV/c² sind absonderlich, da, wie bereits erwähnt, innerhalb der Theorie "Masselosigkeit" gefordert wird.

 

Wie werden Neutrinos nachgewiesen?

Die SM-Antwort lautet: Aufgrund der extrem kleinen Wirkungsquerschnitte hat man im Allgemeinen kaum eine Chance, ein Neutrino in einem Detektor nachzuweisen. Man bedient sich daher, speziell in Kollisionsexperimenten, eines experimentellen »Tricks«, für den Nachweis über die »fehlende Energie«. Man konstruiert den Detektor völlig hermetisch, so dass eine Energie/Impuls-Bilanz aufgestellt werden kann. Der fehlende Energie-Impuls-Vektor wird einem entweichenden Neutrino zugewiesen.

Ergebnisoffene, argumentative Versuchsinterpretation: Vorausgesetzt man könnte ein real-physikalisches System hermetisch gestalten, so verbleibt dieser vermeintliche Neutrino-Nachweis offensichtlich »Neutrinotheorie beladen« und im Sinne eines physikalischen Experimentes »methodisch völlig beliebig«. Denn, wenn es keine Neutrinos geben würde, ändert sich an dem Versuchsergebnis schlicht nichts. Das Einzige, was im "Experiment" festgestellt wird, ist fehlende (masse-abhängige) Energie gemäß vermuteter Energiebilanz.

Die "zweite Klasse" von vermeintlichen Neutrinonachweisen[NN] beruht auf theoretischen Annahmen, die besagen, dass bei Entstehungs- und Zerfallsprozessen Neutrinos beteiligt waren. Es handelt sich in allen Fällen um theoriebeladene, indirekte "Existenzbeweise". In keinem dieser "Experimente" werden Neutrinos direkt nachgewiesen. Das stört aber offensichtlich weder die SM-Bastler noch die SM-Anbeter (mit und ohne Fachwissen).

"Gehen" wir mal in die Praxis"...

Gemäß SM „bedeutet“ Neutrinonachweis beispielsweise:

…Man misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss der Neutrinos…

Nun sind aber schon Pionen (π0, π -, π+)  und erst recht Kaonen (K+, K-K0, K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe https://en.wikipedia.org/wiki/Kaonhttps://en.wikipedia.org/wiki/Pion) des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „ vielfältige“ »Wechsel-Wikungs-Spiel-Szenarien«. Des Weiteren: Das neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt (allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation (siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation) und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer kurzlebigen Form existieren. 

Daraus nun auf Eigenschaften „flavor-oszillierenderG Neutrinos zu schließen, potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu verstehen, braucht man den absoluten Glauben an axiomatische Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, dass jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin - in Verbindung mit der »experimentellen Seite« - grob geschätzt einige Dutzend weitere ergebnisorientierte Annahmen machen müssen,  … kümmert SM-Gläubige nicht).

[G] wie infantil verwahrlost das SM ist, wird hier - auch ohne Kenntnis irgendeiner theoretischen Spezifikation - sprachlich überdeutlich, wenn man rein "Deutsch" vorträgt:

geschmacks-oszillierend

...bedeutet also auch für das Theorieobjekt Neutrino: "barer Unsinn "ahead"...

 

 

 

Zum grundlegenden Verständnis detaillierte Informationen zur Neutrino-Nicht-Existenz

 

Die experimentellen Sachverhalte waren zu jedem Zeitpunkt allen bekannt. Es war und ist somit, insbesondere aus rational-analytischer Sicht, äußerst befremdlich, warum die »Gemeinde« der Physiker vollkommen irrational diese ausblendet(e).

Der Begriff »Gemeinde« ist hier nicht zufällig gewählt. Physiker agier(t)en wiederholt als religiös Gläubige, wie im Folgenden erörtert wird.

Um das Neutrino-Existenz-Problem argumentativ verständlich zu machen, ist es erst einmal zwingend eine der absurdesten (Fehl-)Interpretationen der "Modernen" Physik nachhaltig verstehen zu können.

Warum  es  keine  Neutrinos  gibt

 

 

Sein oder nicht sein?

Um eine lange Denkmodellgeschichte so kurz wie möglich zu machen, kommen wir gleich zum Kern des Paradigmenwechsels bezüglich der Makrokosmos-Beschreibung. Das derzeitige Standardmodell der Kosmologie (ΛCDM-Modell) geht – einfach formuliert - davon aus, dass es im Rahmen der Raumzeit-Expansion eine  so genannte inflationäre Phase gab, in der die »Raumzeit« materielos mit vielfacher Überlichtgeschwindigkeit expandierte. Das ist nur möglich, wenn man die »Massen des Raumes« von diesem trennt. Die heutigen Denkmodelle zur Materiebildung setzen also eine Trennung von Masse und Raum voraus.

Im Rahmen des vorliegenden Denkmodells der Masse-Raum-Kopplung werden diese Annahmen "verworfen" und argumentativ durch deutliche einfachere ersetzt, u.a. mit dem formalisierten Ergebnis extrem genauer Voraussagen bezüglich experimenteller Größen und Werte.

 

Raum - Materie - (Ent-)Kopplung

Um zu verstehen, warum die Standardmodelle, genauer die Entwickler und heutigen Protagonisten, davon ausgingen respektive ausgehen, das man (den) Raum von (der) Materie entkoppeln kann, bedarf es zum Verständnis einiger Überlegungen.

Erst einmal ist festzustellen, das im Rahmen der Standardmodelle diese Entkopplung nicht nur möglich, sondern zwingend ist, wie folgend erörtert wirdMF. Wenn man so will, hat das SM "stillschweigend" diese primär postuliert "kosmologische Entkopplung" übernommen.

 

Standard-Denkmodellanatomie  -  "Vorspiel-Gedanken"

[MF] Das führt u.a. zu folgender, extrem wichtiger Antwort auf die Frage:

Was bleibt von der Allgemeinen Relativitätstheorie (ART) respektive dem daraus resultierenden Standardmodell der Kosmologie (ΛCDM-Modell)?

Die englische Wikipedia weist, anders als die deutsche Version, auf den wesentlichen Aspekt des Modells hin:

"Das Lambda-CDM, Lambda Cold Dark Matter oder ΛCDM-Modell ist ein mathematisches Modell der Urknalltheorie."

"The Lambda-CDM, Lambda cold dark matter or ΛCDM model is a mathematical model of the Big Bang theory."

 

Insgesamt muss man sich als Interessierter die Frage stellen, warum die deutsche Wikipedia im Vergleich zur englischen Wikipedia zum ΛCDM-Modell nahezu "nichts zu sagen" hat. Deutschsprachige, sofern sie nicht auch die englische Version bemühen, bleiben "wissenstechnisch" außen vor.

 

Offensichtlich ist nahezu niemandem klar, ob nun Laie oder Theoretischer Physiker, was »mathematisches Modell« hier bedeutet. Plakativ formuliert bedeutet es: Das einzig "Wahre" in diesem Modell ist die Differentialgeometrie. Alles andere in dem Modell sind Spekulationen, empirisch unbegründete Postulate und dies »Alles« aufbauend auf freien Parametern (wie später erklärt wird).

Die Geschichte der Urknalltheorie ist so verlaufen, ohne das an dieser Stelle bereits näher auszuführen, dass neue hypothetische „Objekte“ eingeführt werden mussten, für die es keine Belege gab und nach wie vor gibt, außer dass sie die zugrunde liegende Theorie rette(te)n. Der Begriff »Inflation«, der ein Feld und eine Energie beinhaltet, die völlig unbekannt sind, wurde Anfang der 1980er Jahre eingeführt, um den Urknall trotz sehr schwerwiegender Widersprüche in der Beobachtung zu halten. Bald darauf kam die nichtbarionische »Dunkle Materie« als postulierte Theorie-"Entität" hinzu und in den 1998er Jahren die »Dunkle Energie«. Die dunkle Energie ist eine postulierte, nicht detektierbare (!?!) Form von Energie, die das Universum auf großen Skalen beeinflusst. Ihr postulierter Haupteffekt besteht darin, dass sie die beschleunigte Expansion des Universums auslöst respektive aufrecht erhält. Der Begriff wurde 1998 von dem Astrophysiker Michael S. Turner geprägt.

U.a. bedingt durch die notwendige These zur Aufrechterhaltung des ΛCDM-Modells wurde die Inflationsphase (mit vielfacher Überlichtgeschwindigkeit) eingeführt, dazu musste der Raum von der Materie entkoppelt werden, ohne das explizit zu erwähnen. "Implizit" ist das klar, denn Materie kann auch im Rahmen der Standardmodelle nicht auf Lichtgeschwindigkeit und schon gar nicht auf Überlichtgeschwindigkeit beschleunigt werden. Das bedeutet jedoch, das diese Raum-Materie-Entkopplung auch vor und nach der postuliert kosmischen Inflation vorlag respektive vorliegt, also auch im Hier und Jetzt. Für diese Annahme gab und gibt es jedoch keine Beweise.

 

Kosmologische Konstante Λ und postulierte Inflation

Die Kosmologische Konstante Λ,  die Albert Einstein im Glauben an ein statisches Universum einführte, welche dann im Zuge der "frühen Ideen" des expandierenden Universums abgeschafft wurde, kam zurück, da Λ theoretisch wieder gebraucht wurde. Doch die Kosmologische Konstante bedeutet schlicht und ergreifend, dass auch im Verständnis der Urknall-Theoretiker, das "Vakuum" eine Energiedichte besitzt. Vakuum ist hier eine weitere Wortspielerei für vermeintlich leeren Raum. Das Anheften von Λ an die Theorie führt aber unweigerlich zu »Materie im Raum«. Das Ergebnis ist leicht zu verstehen. Lassen wir mal außen vor, dass wir hier schon wenig kleinlich, das Attribut einer lichtschnellen Ausbreitung nicht thematisieren wollen. Der Raum expandiert mit Materie (nahezu lichtschnell) bis zum Beginn der postulierten überlichtschnellen Inflation, dann expandiert der Raum ohne Materie bis zum Ende der Inflation, um dann wieder mit Materie brav im Rahmen der Relativitätstheorie zu expandieren.

Detaillierter...

Inflationäre Modelle gehen davon aus, dass der Vakuumzustand des Universums etwa 10-36 Sekunden nach dem Urknall anders war als heute: Das inflationäre Vakuum hatte eine viel höhere Energiedichte. Nach der Allgemeinen Relativitätstheorie erzeugt jeder Vakuumzustand mit einer Energiedichte ungleich Null eine abstoßende Kraft, die zu einer Expansion des Raums führt. In inflationären Modellen verursacht der frühe hochenergetische Vakuumzustand somit extrem schnelle Expansion sprich eine Expansion mit vielfacher Lichtgeschwindigkeit. Diese Expansion erklärt verschiedene Eigenschaften des heutigen Universums, die ohne eine solche inflationäre Epoche nicht zu erklären sind. In den meisten Inflationsmodellen wird ein Skalarfeld, das so genannte Inflationsfeld, vorgeschlagen, das die notwendigen Eigenschaften besitzt.

Die Inflations-Theorien lassen offen, wann die Inflationsepoche endete, derzeit arbeitet man mit einer Dauer zwischen 10-33 und 10-32 Sekunden nach dem gleichfalls postulierten Urknall. Die schnelle Ausdehnung des Raums hat im Modell zur Folge, dass alle potenziellen Elementarteilchen (oder andere "unerwünschte" Artefakte wie topologische Defekte, was das auch immer sein mag), die aus der Zeit vor der Inflation "übrig geblieben waren", nun "sehr dünn" über das Universum verteilt waren. In der postulierten Inflationsphase vergrößern sich die linearen Dimensionen des frühen Universums um einen Faktor von mindestens 1026 (und möglicherweise um einen viel größeren Faktor, die Theorien lassen das offen) und das Universum vergrößerte sein Volumen um einen Faktor von mindestens 1078. Zum Vergleich: Eine Expansion um den Faktor 1026 entspricht der Ausdehnung eines Objekts von 1 Nanometer auf eine Länge von etwa 10,6 Lichtjahren postuliert in 10-33 bis 10-32 Sekunden.

Inflations-Fazit

Fantastischer und willkürlicher geht es in bekannten Sciencefiction-Filmen, wie Starwars, auch nicht zu. Der Unterschied: Es handelt sich um Theoretische Physiker, die nach dem Pippi Langstrumpf-Prinzip die Welt so machen, wie es ihnen gefällt. Warum? Weil sonst sprich ohne ultrakurze, überlichtschnelle Inflationsphase, für die es übrigens im Rahmen der Inflationstheorie keine phänomenologische Begründung gibt,  die selbstdefinierte Theorie sich, aus dann nicht erklärbaren Beobachtungsinterpretationen und - wenn man so will - assoziiert axiomatisch, selbst widerlegt. Was man, insbesondere als Laie, nicht erwarten würde und auch als Laie höchst wahrscheinlich als unseriös bewerten würde, sofern man es denn verstehen könnte. Was für Ärzte immer noch im Volksglauben gilt: Halb-Götter in Weiß, sind hier, da der Normalmensch Theoretische Physiker seriöser als Ärzte einschätzt, die Standardmodell-Experten Götter in Weiß. Hand aufs Herz, wer schon einmal explizit Gleichungen zur Allgemeinen Relativitätstheorie gesehen hat, wird sich sicherlich nicht mit denen "anlegen", die diese Gleichungen als ihr Arbeitsfeld betrachten.

Glücklicherweise läßt sich das Standardmodell der Kosmologie auch ohne differentialgeometrische Details sowie das Standardmodell der Elementarteilchenphysik, im Sinne des Prinzips der Parsimonie, spielend durch die Elementarkörpertheorie (EKT) komplett ersetzen.

Es bleibt nichts von dem einen noch von dem anderen Standardmodell übrig. Weder allgemein, noch epistemologisch oder in Bezug auf  Kompliziertheit und willkürliche Komplexität.

 

Übergeordnet betrachtet

Es müsste nicht nur Interessierte verblüffen, sondern insbesondere gut ausgebildete Wissenschaftler, wie Astrophysiker, das sie denken, genauer sich sicher sind, Aussagen über kosmische Vorgänge außerhalb unseres Sonnensystems machen zu können. Bei genauer Betrachtung ist dieses »Astrophysiker-Denken« nicht nur unwahrscheinlich sondern absurd.

 

 

            

Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Die Ursachen und Phänomene aller möglichen Objekt-Beobachtungen außerhalb unseres Sonnensystems können nicht (einfach) als bekannt vorausgesetzt werden. Des Weiteren, die menschliche Beobachtungs-Zeitspanne ist verglichen mit den Zeitspannen, in denen sich kosmische Bewegungen abspielten und abspielen, extrem klein. Mit den Angaben aus der menschlichen Beobachtungsdauer Annahmen zu begründen, ist „weit hergeholt“ um es mal salopp zu formulieren. Alle derzeitigen vermeintlich empirischen Messungen sind stark (Urknall-)theoriebeladen. Postulierte Zeitspannen, Entfernungen und Energiedichten sind subjektiv-theorieabhängig.

 

Verbreitungsstrategie von Objekt- und Entstehungsmythen

Es beginnt grundsätzlich „ordentlich“, siehe exemplarisch das youtube-video Simulation of the neutron star coalescence GW170817 Die Beschreibung seitens des Max-Planck-Instituts für Gravitationsphysik (Albert-Einstein-Institut) beginnt mit …“The video shows a numerical simulation“…

Doch keiner der Verkünder, ob Wissenschaftler, Wissenschaftsjournalist, Nachrichtensprecher, …,  „meint“ letztendlich, dass es sich, sowohl theoretisch als auch physisch, um nichts weiter als Hypothesen und Simulationen handelt. Stark theoriebeladene Wünsche werden „im guten (doppeldeutig) materiellen Glauben“ materialisiert. Obwohl jeder sehen könnte, was er nie wirklich sehen wird…

 

Wahrnehmungsmöglichkeiten

In unserem Sonnensystem gibt es weder Neutronensterne, Gamma Ray Bursts (GRBs) noch Schwarze Löcher (respektive „Anomalien“, die als solche interpretiert werden können).

Eine Liste postuliert „erdnächster“ Schwarzer-Löcher-Kandidaten findet sich unter https://en.wikipedia.org/wiki/List_of_nearest_black_holes mit einer „kürzesten“ Entfernung von 2800 Lichtjahren. Zum Vergleich: Der nächste Stern „aus unserer Sicht“ ist mit 4,24 Lichtjahren Proxima Centauri (https://de.wikipedia.org/wiki/Proxima_Centauri). Objekt- und Entfernungs-Angaben beziehen sich auf die „Sicht des ΛCDM-Modells“.

Das angesiedelte soziologische Wahrnehmungsproblem „besteht“ darin, daß hier, nach einfachem psychologischem Glaubens-Muster, diverse postulierte Theorieobjekte unterschiedlichster Art, teils seit Jahrzehnten - der mit rudimentärem Wissen ausgestatteten Bevölkerung - als 100% real existent sprichwörtlich "verkauft" werden.  

Die Vorhersagen der »ART-Gleichungs-Anwender« sind im Sinne der ART-Axiomatik beliebig bis falsch. U.a. aus folgenden Gründen:

Ohne hier auf die zahlreichen Details, insbesondere die komplizierte und komplexe Mathematik (Stichworte Differentialgeometrie, Friedmann-Lemaître-Robertson-Walker-Metrik) explizit einzugehen und ohne die notwendige These des Standardmodells der Kosmologie (Lambda-CDM-Modell) der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit für eine ultrakurze Zeitspanne) an dieser Stelle nochmals zu thematisieren…

Das basisverletzte Kovarianzprinzip

Die allgemeine Relativitätstheorie ist eine Gravitationstheorie und geht von der Gleichheit der trägen und der schweren Masse aus [»Äquivalenzprinzip«]. Aber die ART erklärt dieses Prinzip nicht sondern setzt es voraus. Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken] bleibt aber physikalisch “unmotiviert”. Schlimmer noch: Es ergeben sich je nach Wahl des Koordinatensystems phänomenologische Interpretationsspielräume (siehe oben). Der Grund ist “relativ” einfach: Koordinatensysteme sind mathematische Konstrukte, die keinerlei physikalische Eigenschaften besitzen (müssen). Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren (“kovarianten”) Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen.

Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Mit anderen Worten: Das Kovarianzprinzip ist realphysikalisch betrachtet formales Blablabla und kann jeglichen theoretischen Mist hervorbringen. Selbst Schreibfehler können im Rahmen der Differentialgeometrie der ART Lösungen generieren.

Dazu ein exemplarischer Denkanstoß: Die zur “Schwarzschild-Metrik Lösungsmöglichkeit“ nach ihren Autoren benannte Eddington–Finkelstein–Koordinatentransformation beseitigt die Koordinatensingularität der Schwarzschildlösung und “sorgt” dafür, dass für die “avancierte” Lösung nach innen und für die “retardierte” Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können! Mit anderen Worten: Die postulierten Schwarzen Löcher der „Ur-Version“ der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten des gewählten Koordinatensystems. Ein weiteres Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, “bringt” dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, dass Teilchen das Schwarze Loch verlassen können. Bedeutet im Ergebnis: Kein Schwarzes Loch. Ausführlicher und genauer auf Spektrum der Wissenschaft online im Kommentarbereich des Artikels »Schwarze Löcher in Größe M«, 2. Kommentar vom 26.1.2016

Fazit: Schwarze Löcher sind populärwissenschaftlich ohne Frage sensationeller als keine Schwarzen Löcher. Doch es gibt keinen experimentellen Nachweis der Existenz auch nur eines einzigen Schwarzen Loches. Schwarze Löcher sind nichts weiter als Theorieobjekte eines mathematischen Formalismus, dessen gefordertes Kovarianzprinzip bedingt durch die Struktur der Gleichungssysteme nicht erfüllt werden kann, da nur Näherungen zu rechenbaren Lösungen führen.

 

Exemplarischer Nonsens: Gravitationswellen-Messungen

»Abstract zur Sache«

Bei der irdischen LIGO-Apparatur (Laser Interferometer Gravitation Wave Observatory) handelt es sich prinzipiell um ein Michelson-Interferometer, das angeblich Meßunterschiede in der Grössenordnung von 10-22 abbilden kann. Das verwendete “LIGO-Interferometer” “arbeitet” mit Laserlicht” und besteht aus “makroskopischen” Spiegeln und mißt keine Gravitationswellen, sondern “Verschiebungen” der Teilstrahlen im Spiegelsystem. Die immer wieder zu lesende Ansage, es handelt sich um einen direkten Nachweis von Gravitationswellen ist schlicht unwahr. Noch schwerwiegender ist der Umstand, daß die Interpretation der Messung Bestandteil der Meßkonzeption ist. Bereits die Kriterien der massiven Datenfilterung beinhalten die theoriebeladene Interpretation! Die dokumentierte Wahrheit ist, die “extrem winzige”, wunschgemäß der Gravitationswelle zugeschriebene, Längenänderung wurde nicht gemessen, sondern stark theoriebeladen “errechnet”. Die Theorie zur Gravitationswelle resultiert aus einer Kovarianzverletzung, wie bereits in einem vorherigen Kommentar ausgeführt, der zugrunde liegenden Gleichungen. Salopp formuliert wird u.a. zum Meßzweck die Raumzeit pseudoeuklidisch in einen absoluten Raum und messbare Zeit aufgespalten. Konträr zu Wunsch und Forderung der Standardmodellverkünder und dem ausgelösten Gravitationswellen-Hype in den populärwissenschaftlichen Medien existieren real weder Gravitationswellen noch Schwarze Löcher, letztere sind gleichfalls ein spezielles Produkt Schwarzschildmetrik kovarianzverletzter Gleichungen, wie gleichfalls bereits ausgeführt wurde. Mehr Details zur komplexen Problematik siehe exemplarisch »Gravitationswellen-Postulat und propagierte Nachweise«

Bereits Halton Arp brachte es auf den Punkt, was jeder wissen sollte, bevor man sich überlegt, wie eine Gravitationswelle wirken könnte.

Alle Daten über die extragalaktische Astronomie, die wir haben und die die Versuchs-Rahmenbedingungen für Messungen und Annahmen, auch der postulierten Gravitationswellen ausmachen, stammen aus elektromagnetischer Strahlung. Astrophysiker täten gut daran, sich diese einfache Tatsache immer wieder vor Augen zu halten. Allein die Tatsache, dass die Rotverschiebung von Quasaren nicht-kosmologisch sein könnte, würde das ganze Fundament der Entstehungstheorien für Galaxien und das übergeordnete Hubble Gesetz revisionsbedürftig machen.

Der Begriff respektive das Objekt Gravitationswelle ist bereits irreführend, da die mathematisch generierten Gravitationswellen der Einstein-Friedmann-Gleichungen keine materielle Qualität besitzen. Die Gravitationswelle ist ein Konstrukt der Raumzeit, diese ist meßtechnisch selbst nichts weiter als eine mathematische Abstraktion.

Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Das ist eine allgemeingültige Aussage.

Ein sehr gutes Beispiel, welches diese Aussage untermauert, ist die Messung der Gravitationskonstanten, die mit einer relativen Standardabweichung von 4,7 ·10-5, die „schlechteste“ Wertbestimmung aller Natur-Konstanten aufweist.

Warum ist das so? „Ganz genau“ …, weil es keine menschliche Möglichkeit gibt, den Kosmos zum Labor aufzumotzen. Wie absurd lächerlich erscheint da im Vergleich die Annahme einer Mess-Genauigkeit von 10-22?

Wenn wir vom Kosmos – ohne Schöntuerei der Systempropaganda-Apparate – „sprechen“, dann endet derzeit die „irdische Mess-Genauigkeit“ wohl eher im Bereich der (Un-)Genauigkeit der “experimentellen” Gravitationskonstanten-Bestimmung.

Insbesondere im Zusammenhang mit dem rein theoretischen Konstrukt einer mathematisch generierten Gravitationswelle, gemäß genäherter Lösung und deren postulierter realer „Abbildung“ mittels Interferometer im Mess-Differenz-Bereich von 10-22, muß zwingend vorausgesetzt werden, das es sich bei dem »Kosmos«-Experiment um ein kontrolliertes Laborexperiment handelt, dessen versuchsrelevante Randbedingungen vollumfänglich bekannt sind. Diese Annahmen sind im Rahmen wissenschaftlicher Normen rational logisch mit Sicherheit auszuschließen.

Glaubte eigentlich Albert Einstein an die reale Existenz der mathematisch generierten Gravitationswellen?

Gläubige dieser Annahmen sind kritiklose Opfer ihrer selbsterzeugten Erhöhung, nur mit Wissenschaft, hier konkreter mit Physik, hat das nichts (mehr) zu tun.

Um 1936 schrieb Einstein an seinen engen Freund Max Born und teilte ihm mit, dass er zusammen mit Nathan Rosen zu dem interessanten Ergebnis gekommen sei, dass Gravitationswellen nicht existierten, obwohl man sie in erster Näherung für sicher gehalten hatte. Er hatte schließlich einen Fehler in seiner Arbeit von 1936 mit Rosen gefunden und glaubte, dass es Gravitationswellen gibt. Im Jahr 1938 kam Einstein jedoch erneut zu dem Ergebnis, dass es keine Gravitationswellen geben kann. Quelle: arxiv.org: Einstein and Gravitational Waves 1936-1938 Galina Weinstein 2016

Weiteres zum selbstständigen Mit- und Nachdenken

Die genaueste Längenmessung ergibt sich „spektroskopisch” mittels Proton-Myon-Wechselwirkung („myonischer Wasserstoff”) für die Messung des Protonenradius mit einer „Genauigkeit” von ~ 10-17 m

Zum Vergleich: Je nach dem, was und wie gemessen wird (…, Szintillator, Kaloriemeter,…, Penning-Falle …), ist ein QED-postuliertes, meßtechnisch erfasstes, „sehr gutes” Versuchs-Ergebnis, im Zusammenhang mit Naturkonstanten, die Messung des (anomalen) magnetischen Momentes des Elektrons mittels Doppel-Penning-Falle.

Anomales magnetisches Moment des Elektrons relative Standardabweichung 2,3 ·10-10

(Wobei sich die Frage stellt, inwieweit vermeintlich intrinsische Eigenschaften und deren Messwerte letztendlich aus Objekt- und versuchsinhärenten Beiträgen bestehen, siehe dazu die detaillierten Ausführungen Anatomie anomaler magnetischer Momente)

Sollte nun ein Theorieereignis der Raumzeit meßbar sein, so muß es sich als realphysikalisches „Messobjekt“ verhalten. Handelt es sich um ein solches, so stellt sich grundsätzlich die Frage, was denn gemessen wird. Nehmen wir mal unkritisch an, es handelt sich um Gravitationswellen. Hier kann es sich dann nur um eine Überlagerung aller vom Messinstrument lokal wahrgenommenen Gravitationswellen handeln. Da das Universum nicht isotrop ist und die Massen potentieller Objekte – soweit entdeckt – nur geschätzt sind, lässt sich weder die Anzahl noch die Stärke der Gravitationswellen-„Emitter“ im Rahmen eines gemessenen Gravitationswellenereignisses identifizieren, und u.a. auf Grund der angenommenen endlichen Lichtgeschwindigkeitsausbreitung für Gravitationswellen weder räumlich noch zeitlich „verorten“.

Selbst im Rahmen des ΛCDM-Modells kämen und kommen also argumentativ pro Gravitationswelle ja auch alle gravitationswellen-bildenden Ereignisse in Frage, die aus unterschiedlichsten Gründen nicht in den selbstgewählten Beobachtungsrahmen fallen, da sie insbesondere aus (Beobachtungs-)Unkenntnis schlicht unbekannt sind. Die suggestive Annahme, man wüsste genau, was sich kontinuierlich im Universum abgespielt hat und abspielt, zeugt von dekadenter Überheblichkeit und objektiv betrachtet ist diese (unmöglich zu realisierende) Annahme aber zwingend für eine “korrekte Versuchsauswertung”.

Mitbürger(innen) und was es sonst noch so woke-korrekt sprachzivilisatorisch mit eigener Atmung und eigenem Stoffwechsel gibt,

die staatliche Volksverdummung geschieht, obwohl die Faktenlage – öffentlich einsehbar – sachbezogen dokumentiert ist. Wer also glaubt, dass die Standardmodelle der Theoretischen Physik eine Berechtigung haben, weil sich nahezu alle „führenden“ Wissenschaftler dort tummeln, hat wesentliche Aspekte der vermeintlich „gemeinnützigen Meinungsbildung“ nicht verstanden. Ob CERN, LIGO oder die deutsche „alternative Energiepolitik“, nicht der Wunsch nach Erkenntnisgewinn oder praktischem Nutzen geben hier den Ton an, sondern letztendlich die von der Allgemeinheit subventionierten Nutznießer selbst, die konträr zur empirischen Gewissheit, Fakten leugnen und haltlose Aussagen verbreiten. Der Erhalt der Macht- und individuellen Versorgungsstruktur steht über allem anderen. Kritiker werden ignoriert, wenn nötig diskreditiert. Servile System-Medien verkünden und bewerben jeden denkmodell-theoretischen und anwendungstechnischen Mist der herrschenden Standardmodelle.

Die Massenpsychologie, die hier von den Fördergeldempfängern erfolgreich angewendet wird, hat Theodor Fontane aphoristisch so ausgedrückt: „Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu, dem baren Unsinn.“

Soviel zur kapitalistischen Psychologie des “Ganzen”.

 

Zum “Gravitations-Wellen-Ausklang”

Moderner Förster und „mathematische Feldhasen“

Stellen »Sie« sich vor, »Sie« sind ein Förster und beobachten jeden Morgen den nahe gelegenen Waldrand. Nur sind »Sie« nicht irgendein Förster, sondern »Sie« sind ein „moderner Förster“. Diese tragen eine „mathematische Brille“, die den Blickwinkel sehr stark einschränkt. Das führt dazu, dass »Sie« nur sehr selten Feldhasen sehen, die aus dem Wald ins Freie hoppeln. Eines Tages sehen »Sie« einen und erzählen stolz der ganzen Welt, »Sie« haben heute nicht nur einen Feldhasen, sondern einen „mathematischen Feldhasen“ beobachtet, der, anders als gewöhnliche Feldhasen, von dem Gleichungs-Impuls gelenkt wurde, der in der „mathematischen Hasenbibel“ steht, welche jeder „mathematische Feldhase“ neuronal-kodiert im Hasenhirn mit sich „rumträgt“. Nun, »Sie«, der besagte Förster, bekamen zu »Ihrer« Überraschung weder omnipräsente mediale Aufmerksamkeit und auch keinen Nobelpreis, sondern wurden neurologisch untersucht.

 

 

Materie-Raum-Kopplung

Löst man sich von der »Standard-Modell-Masse-Raum-Entkopplungsfantasie«, sieht die Welt deutlich einfacher aus, als uns das die Theoretische Physik seit mehr als 100 Jahren mathematisiert "weis machen will". Das hat erhebliche Konsequenzen. Eine Materie-Raum-Kopplung führt, phänomenologisch begründet, sowohl für den Mikro- als auch für den Makro-Kosmos, zu sehr einfachen Berechnungsmöglichkeiten zahlreicher physikalischer Größen und zum plausiblen Verständnis der möglichen Wechselwirkungen. Es kommt letztendlich zu einer Vereinheitlichung der (postuliert vier) Grundkräfte und darüber hinaus zu einer konsistenten Beschreibung von Materie und Licht.

Erweiterung des Energieerhaltungssatzes

Die Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist und das sich Masse in Raum und Raum in Masse transformieren lässt. Weiterführend resultiert, aus der Gesamtbetrachtung, das auch Information eine Energieform ist.

Herleitung und Details zum erweiterten Energieerhaltungssatzes 

 

 

Wie einfach beispielsweise das Proton im Bild der Masse-Raum Kopplung im Vergleich zur Standardmodellsicht erscheint, verdeutlicht "grob" folgende Grafik:

f7 = (4 πε0c²) wurde "eingeführt", um suggestiv zu verdeutlichen, dass es sich bei der [Elementarkörper-]Ladung q(0) ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken, als der Wert der Dielektrizitätskonstanten ε0. Am Rande bemerkt: Es gilt: ε0· μ0 = 1/c², μ0: magnetische Feldkonstante

 

 

Begriff der elektrischen Ladung(en) Masse-Radius gekoppelt(er Hintergrund)

Nahezu alle Berechnungen der EKT gehen von der Masse-Radius-Konstantengleichung [F1] aus...

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Radius-Kopplung bequemerweise nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. "Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten (...das wird später noch ausführlich erörtert). Zum einen die energetisch ruhemasse-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e.

Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert:

 

Feinstrukturkonstante α

Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten α führt im Bild der Elementarkörpertheorie zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Größe, die aus der elektrischen Elementarladung "entstammt".

 

 

 

Keine Gnade

Letztendlich könnte man sich tolerant zeigen und darauf hinweisen, dass ein Denkmodell eben nur ein Denkmodell ist. Mit der Konsequenz, das die Standardmodelle im Vergleich zur Elementarkörpertheorie, gemäß dem Prinzip der Parsimonie, zwar eindeutig verlieren, aber ihre Existenzberechtigung behalten (könn(t)en). Nun, was "soll ich sagen", nein, dem ist nicht so. Nicht weil ich das (emotional motiviert) nicht will, sondern weil es zahlreich argumentative Gründe gibt, die die Standardmodell-Postulate, derzeit 31(!) freie Parameter (25 SM, 6 ΛCDM), mehrere Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien und die resultierenden Aussage-Ergebnisse der Standardmodelle als reine Versuchs-Märchen-Interpretationen identifizieren. 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Fazit: Es handelt sich bei dem SM und dem ΛCDM-Modell  um philosophisch-mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle! Somit haben sie keine Modell-Daseinsberechtigung zur Beschreibung der physikalischen Welt, auch losgelöst von der Existenz der EKT.

 

 

       

         Information als materieller Zustand = Elementarkörper                       Zustand als Information = Photon

                            

Die Basisaussagen des alternativen Denkmodells sind „glücklicherweise“ – sowohl sprachlich als auch inhaltlich – relativ einfach zu verstehen. Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an »globale Auffälligkeiten«, wie die Gravitationskonstante, die kleinste skalare Wirkung oder die Invarianz der Lichtgeschwindigkeit, intuitiv entwickeln. Ängste vor primärer Intuition sind unbegründet. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische sowie allgemeine Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine (erkenntnistheoretische) Nullnummer.

Insbesondere die »allgemeinen Aphorismen« sind leicht verständlich.

Beispiele:

Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell.

Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.

 

 

Die experimentelle Sachlage

Alle Versuche die - sowohl auf kleinen Skalen (Mikrokosmos) als auch makroskopisch - durchgeführt wurden, bestätigen gemäß Versuchsergebnissen, deren Berechnungsmöglichkeiten und Meßwerten das, was die Elementarkörpertheorie (kurz EKT) auf Grundlage der Masse-Raum-Kopplung phänomenologisch beschreibt und einfachst formal-analytisch in sehr guter Übereinstimmung mit Meßwerten berechnet.

Der vorliegende - teils interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt.

Es folgt viel Text, genauer es folgen ausführliche Betrachtungen (Physikalisches, Mathematisches, Geschichtliches, Interdisziplinäres) zum Status Quo der Denkmodellsituation und einer argumentativ orientierten Alternative. Experimentalphysiker, angesiedelte Theoretiker, Apologeten, Epigonen und Fans des Bestehenden denken (erst einmal "gelernt") reflexartig, dass es sich vorliegend um einen Meinungsartikel handelt bzw. handeln muß, der entweder ungelesen ignoriert werden kann, oder sich die Inhalte, bei näherer Betrachtung, als unbedeutend "entpuppen" und letztendlich keine Gefahr für das bestehende Denken bedeuten.

Ehrlicherweise verhält es sich in der Regel auch so. Kritiker mit "guten" Argumenten gegen Bestehendes hatten respektive haben meist keine oder "schlechte" Alternativen im Angebot. Darüber hinaus kann sich nahezu niemand, insbesondere Quantenfeldtheoretiker, vorstellen, das es je etwas anderes als Quantenmechanik (QM), Quantenelektrodynamik (QED), Quantenchromodynamik (QCD), Allgemeine Relativitätstheorie (ART), perspektivisch Quantengravitation (QG) zur Beschreibung der Natur geben wird. Diese Grundhaltung sorgt dafür, dass kein Kritiker ernst genommen wird, der ein alternatives Denkmodell vorstellen möchte, welches nicht mit den genannten, etablierten Beschreibungsmethoden arbeitet.

 

Der Vollständigkeit halber erwähnt: Auch Stringtheorien basieren - plakativ formuliert - auf Annahmen der historischen QM als Beschreibungsmodell. Im grundlegenden Ansatz der Stringtheorie sind die fundamentalen Objekte der Physik jedoch keine Punktteilchen, sondern eindimensionale Objekte, so genannte Strings (englisch für Saiten).

Stringtheorien potenzieren (aus erkenntnistheoretischer Sicht) das „Phänomen der Unanschaulichkeit“. Stringtheorien sind u.a. ein „Sonderfall“ variabler Kopplungskonstanten. Jedoch sind diese Kopplungskonstanten keine vorbestimmten, anzupassenden oder universellen Parameter. String-Kopplungskonstanten sind Skalarfelder, die von der Position in Raum und der Zeit abhängen können, deren Werte so dynamisch festgelegt werden. Die eindimensionalen Strings sind zwar offensichtlich anders als die nulldimensionalen Punkte des SM,  aber Stringtheorien sind ergebnisorientiert, trotz der "Mehrdimensionen" in denen sich die Strings „breit machen“, keineswegs grundsätzlich verschiedene Konzepte im Vergleich zu den herrschenden Quantenfeldtheorien, wie häufig gedacht und behauptet wird. Auch Stringtheoretiker sind bemüht Quarks & Co theoretisch zu konstruieren. Das gesamte Arsenal an Beliebigkeit in Form nicht direkt messbarer instabiler „Teilchen“, die im Beschleuniger (theorie-)induziert werden, will die Stringtheorie „ungeprüft“ abbilden (formal nachbauen). Das Dogma der SM-Theorieobjekte bleibt also erhalten. Derzeitige Stringtheorie-Modelle sind jedoch so aussage- und gegenstandslos, dass selbst die Protagonisten des realobjektbefreiten Standardmodells keine („wirkliche“) Angst vor diesen haben.

Der letzte Schrei

Es werden - Zeitgeist orientiert - Eigenschaften von Quantengravitation und Stringtheorie theoretisch „erforscht“. Darin geht es unter anderem um die Frage, welche Quantenfeldtheorien bei niedrigen Energien eine konsistente Einbettung in die Stringtheorie bzw. bei hohen Energien in die Quantengravitation erlauben - und für welche Quantenfeldtheorien dies nicht der Fall ist.

 

Wohliges Dauer-Baden im eigenen Denksaft

Was passiert jedoch, wenn "plötzlich und unerwartet" der Stöpsel gezogen wird?

Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll? Stellen wir uns vor, dass es sich nicht um eine überschaubare Korrektur handelt, sondern um einen gewaltigen »Umstoß« des Bestehenden, hin zu einem Denkmodell respektive Weltbild, welches das vermeintlich »Unumstößliche« nicht nur in Frage stellt sondern komplett ersetzt. „Schlimmer“ noch, dass es sich herausstellt, das – plakativ formuliert - mehr als 100 Jahre Theoretische Grundlagenforschung von völlig falschen Annahmen ausging und rückblickend, mit all den Erweiterungen und Nachkorrekturen, als - emotional betrachtet - peinlich und selbstbetrügerisch erscheint.

Wir können uns sicher sein, dass alles Mögliche von den Betroffenen in Bewegung gesetzt wird, um die Verbreitung dieses Alternativmodells zu verhindern.

Die Physiker und Mathematiker, die nicht selbst mit den Standardmodellen assoziiert sind, stehen »Alternativen Denkmodellen« kritisch gegenüber, sofern sie überhaupt über diese nachdenken, weil sie sich nicht vorstellen können, das ihre Kollegen-Experten falsch liegen können. Sie denken, dass am Ende Alternativen sich nicht durchsetzten können, weil sie glauben, was die Standardmodellmacher seit Jahrzehnten propagieren: Wie ausgereift, aussagekräftig und alternativlos doch ihre Modelle sein. Mitunter schwingt auch die Angst mit, sich mit öffentlich wahrnehmbarer Kritik zu blamieren. Das hat damit zu tun, dass die angewandte Mathematik so komplex und schwierig ist, dass sie erst einmal mit dem Vorwurf konfrontiert werden, dass sie ja gar nicht verstehen, was sie da kritisieren. Das ist auch in den meisten Fällen aus rein mathematisch-formaler Sicht zutreffend.

 

Jäger und Sammler AlexDirk     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

Wenn ein »Alternatives Denkmodell« doch so gut ist, wie propagiert, warum wird dem trotzdem wenig bis keine Beachtung geschenkt? Warum wird es nicht in Fachkreisen beachtet und darüber diskutiert?

 

 

 

Wenn Prüflinge gleichzeitig Prüfer sind oder so ähnlich...

Diejenigen, die hier am besten und schnellsten, im Hinblick auf Konsistenz und Aussagefähigkeit, untersuchen könn(t)en, ob ein »Alternativmodell« im Sinne des Prinzips der Parsimonie eine Existenzberechtigung hat, sind im 21. Jahrhundert fast ausnahmslos Theoretische Physiker und in diesem Bereich angesiedelte Mathematiker. Diese sind allesamt, sofern sie sich mit den Standardmodellen der Teilchenphysik und Kosmologie beschäftigen, Protagonisten, Apologeten oder Epigonen dieser.

Es ist, sowohl für einen "unbetreuten" Quantenfeldtheoretiker, als auch für einen "unbetreuten" »ART affinen Differentialgeometriker«,  schlicht unmöglich, sich vorstellen zu können, dass es brauchbare Denkmodellalternativen ohne Quantenfelder und Differentialgeometrie geben kann. Das ist keine Übertreibung. Es ist für diese "Standardmodell-Denker" komplett unmöglich einfach zu denken. Das bedeutet, diese haben keinen eigenen Primärimpuls etwas derartig »Anderes« auch nur im Geringsten zu betrachten.

Aphoristisch lautet ihr Ausschließungs-Motto seit eh und je...

Wir lesen nichtwir schreiben selber!   

 

 

 

Und der "Rest" der Physiker und Mathematiker?

Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, dass nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren müsste. Und: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen.

Volumen aus dem Nichts

 

 

"Der größte Fehler, den wir meiner Meinung nach immer wieder begehen, besteht darin, sich von der Theorie zum Modell leiten zu lassen. Nach einer lächerlich langen Zeit ist mir endlich klar geworden, dass etablierte Wissenschaftler tatsächlich davon ausgehen, dass Theorien einem sagen, was wahr ist und was nicht!Halton Arp (1927 - 2013), Astronom

The greatest mistake in my opinion, and the one we continually make, is to let the theory guide the model. After a ridiculously long time it has finally dawned on me that establishment scientists actually proceed on the belief that theories tell you what is true and not true! Halton Arp 

 

 

Des Weiteren gibt es noch die egozentrischen Standardmodell-Kritiker, die neben ihrer Kritik auch gerne kreativ werden würden. Mit oder ohne sachrelevante Vorkenntnisse, fehlt es jedoch nahezu allen, bis auf die »one in a million« - Ausnahme, an »schöpferischem Geist« ein brauchbares physikalisches Denkmodell zu entwickeln. Die Fokussierung auf das ich, macht sie in dem Fall, das einer aus ihren Kritiker-Reihen, das schafft(e), was ihnen nicht gelang respektive gelingt und wohl auch perspektivisch nicht gelingen mag, zu Verdrängern und Ignoranten.

Ihre Strategie: Sie vermeiden es, sich mit dem neuen alternativen Denkmodell auseinanderzusetzen. Sie haben Angst sich den Ausführungen im Detail zu nähern, da eine Kaskade von Gefahren besteht. Erst einmal, dass sie für sich erkennen müss(t)en, dass das Modell tauglich ist. Das bereitet vielen einen starken Egoschmerz. Als nächstes wären sie - früher oder später - in der Pflicht auch darüber im Rahmen ihrer Möglichkeiten zu berichten. Insbesondere öffentlich bekannte Kritiker wären dann verpflichtet, auf Grund ihrer medialen Reichweite für eine entsprechende Verbreitung zu sorgen oder müssten sich irgendwann erklären, warum sie das nicht taten. Die Geschichte zeigt zwar, dass diese Vermeidungs-Strategie selten erfolgreich ist, doch wie man so "schön" sagt: Die Hoffnung stirbt zuletzt. Tatsache ist: Es mag lange dauern, doch eines Tages kommt das »Neue« ans Tageslicht. Trotz dieser Erkenntnis sind (auch) die Egozentriker in den Reihen der Denkmodellphysiker diesbezüglich beobachtungs- und lernunfähig.

Bei den Kritikern, die ihre Kritik professionalisiert haben und Geld mit Büchern, Vorträgern etc. verdienen, geht es offensichtlich nicht nur um Egoproblematiken sondern auch um Materielles. Spätestens an dem Tag, wo jedem klar ist, dass die alten Theorie-Konzepte nicht mehr relevant sind und das nicht nur in Fachkreisen sondern auch populärwissenschaftlich kommuniziert wird, ist auch die diesbezügliche Kritik obsolet. Das bedeutet - leicht verständlich - sie verdienen nichts mehr mit ihrer Kritik an den überholten Denkmodellen. Ein weiterer Grund die "Füsse still zu halten".

 

 

Lese(r)optionen

In den Textausführungen gibt es zahlreich weiterführende Hinweise, Ergänzungen, geschichtliche Beispiele, Analogien und daraus resultierend "Verlinkungen".  Für ein zügiges Grundverständnis ist es jedoch empfehlenswert den Textausführungen fließend zu folgen und erst einmal keine oder wenige »Linkstopps« einzulegen. Ähnliches gilt für explizite Gleichungen und resultierende Berechnungen. Sofern diese noch nicht (im Kontext) verstanden werden können, ist es auch in diesen Zusammenhängen empfehlenswert die Ergebnisse erst einmal so hinzunehmen. Letztendlich bleibt im weiteren (Lese-)Verlauf nichts unerklärt respektive unbegründet.

 

Da es in diesem Sinne - im Hinblick auf das allgemeine sowie methodische Verständnis - sehr schnell zu speziell werden kann, wird dem Leser mitunter die Entscheidung überlassen, wie er gemäß seinen eigenen Wünschen agieren möchte. Es gibt optional an diversen Stellen die Möglichkeit punktuell weitere Informationen zu dem aktuell Erörterten direkt mit "einem Klick" in einem neuen zusätzlichen Browserfenster zu erhalten.

                                                

                                            
ein Klick auf

führt zu ergänzenden, ausführlicheren Betrachtungen

                                                             

öffnet ein zusätzliches Browserfenster

                                          

[Beispielansicht Auszug zur Berechnung der Grundzustandsenergie des myonischen Wasserstoffs]

 

 

Eine zunehmend unschöne übergeordnete Entwicklung

die mittlerweile auch akademisch Ausgebildete betrifft

Das Gros der Menschen des frühen 21.Jahrhunderts verfügt - konträr zum angewandten technischen Fortschritt - nur (noch) über eine einfache Lesefähigkeit. Im Vergleich mit herkömmlichen Textbotschaften (Twitter, WhatsApp, Mainstream-Artikeln, …)  sind vorliegende Ausführungen tendenziell sprachlich komplex. Die Fähigkeit diese Texte verstehen zu können, setzt einen spielerischen Umgang mit Sprache voraus.

Die (historisch) kurze Phase der Aufklärung ist schon lange beendet und hat sich mit »sozialen inneren Kräften« in eine beschleunigte faktenfeindliche respektive faktenfreie Zeitgeist-Periode katapultiert.

Wie sollen Jugendliche sowie (später eines Tages) „Erwachsene“ anspruchsvolle, komplexe geschriebene Inhalte begreifen, wenn sie nicht einmal Einfaches inhaltlich verstehen? Wie sollen sie selbst entsprechende Inhalte schriftlich oder mündlich formulieren? Wie wirkt sich diese Simplizität auf das Denkvermögen aus?

Weiter ist zu beobachten: Neben einem deutlich reduzierten Vokabular, sozusagen einer Art von »Pidgin-German«, beobachtet man eine extreme Unfähigkeit grammatikalische Zeitformen (v. A. Konjunktiv I und II) richtig zu verwenden, Adjektive und Adverbien adäquat einzusetzen und eine absolute Unfähigkeit in Texten gewisse Feinheiten wie Satire, Ironie, Euphemismen etc. richtig einzuordnen.

 

Um Sprache, Mathematik, Naturwissenschaften sowie gestalterische Grundlagen in einem historischen Kontext zu lernen, sind Bücher der digitalen Welt nicht unterlegen. Ganz im Gegenteil, Gestalter digitalisierter Versionen neigen zunehmend dazu – politisch korrekt – an sich sachlich zu erfassende Lerninhalte zu infantilisieren und gesellschaftspolitisch aufzuladen.

Beispiel

Es gibt offensichtlich inhaltlich nichts Neues zu fundamentalen mathematischen Techniken, wie beispielsweise zur Integral- und Differentialrechnung. Da jedoch im »Westwelt-Wokeness-Wahn« alle gleich "schlau" (blöd) sein sollen, wird gerne, auch bei mathematisch-wissenschaftlichen Ausführungen, "kindgerecht" vorgetragen. Mit dem Ergebnis: Infantile pädagogische Ansätze führen letztendlich zu Mißverständnissen und eingebildeten »Angebildeten« statt Ausgebildeten.

Leseempfehlung: Eine verstörende Bestandsaufnahme der (deutschen) Bildungspolitik, …“lustig erzählt“… siehe: DER SCHWANZ IST EINE MONOTON FALLENDE EXPONENTIALFUNKTION von Franz Emmermeyer

2006 war der Film Idiocracy zumindest teilweise noch “Science Fiction-Comedy”.  Aktuell ist es schwierig Zeitgenossen zu finden, die nicht zu den funktionalen Analphabeten gehören und einen einfachen Dreisatz beherrschen… Idiocracy wird Realität, wir schaffen das…

Es gilt heute, mehr denn je, sowohl in den Massenmedien als auch in populärwissenschaftlichen (Online-)Magazinen (Clickbait) gemäß Theodor Fontane (1819 - 1898): "Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn."

Etablierter Sprachunsinn

Beispiele

Die Frau von Nebenan, die Berichterstatterin im Fernsehen, die Fitness-Expertin sprechen meist fälschlicherweise von Kalorien statt Kilokalorien. (“Schenken” wir uns hier den Hinweis auf die international gültige Maßeinheit (Kilo-)Joule statt (Kilo-)Kalorien.) Tatsache ist: Den Faktor 1000 im Sprachgebrauch methodisch zu unterschlagen ist ohne Zweifel 1000mal falsch.

Der Begriff Klimawandel ist inhaltlicher Nonsens. Es muss (im Deutschen) Klimaveränderung und nicht Klimawandel heißen. Vollkommen losgelöst von der (Nicht-)Realität eines globalen, signifikanten, menschengemachten, postuliert monokausalen (CO2 basierenden) Klimawandels.  Denn worin sollte sich das Klima respektive in was sollte sich das Klima wandeln? Es handelt sich um Veränderungen der klimatischen Verhältnisse, nicht um eine (Ver-, Um-)Wandlung.

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall bzw. decay im Englischen, obwohl sie damit Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik nicht so.

 

Das hier beschriebene alternative Denk-Modell basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

"Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger

Die fatale Einstellung Theoretischer Grundlagenphysiker, das »ALLES« nur im Rahmen "höherer", komplizierter, komplexer Mathematik verstanden und entwickelt werden kann, wird auch im Bereich der Mathematik von den dort agierenden vermeintlichen Experten vertreten.

 

Mathematik einst und heute

Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre.

Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben.

Keine Kirche hält ihre Gläubigen so streng am Wickel wie die “moderne Wissenschaft” ihre Gemeinde.” stellte Christian Morgenstern (1871 – 1914) schon vor mehr als 100 Jahren fest.

 

 

Einerseits führen, wie bereits erwähnt, zu früh thematisierte konkrete Alternativmodell-Ergebnisse im Text, umfangreiche Erörterungen, mittels hergeleiteter Gleichungen und detaillierten phänomenologischen Aspekten, zu einem Fokusverlust, im Sinne des übergeordneten Erst-Verständnisses und sind insbesondere für nicht so mathematisch versierte Leser tendenziell schwierig bis kontraproduktiv. Andererseits ist es wichtig, bereits früh explizit Berechnungsgleichungen vorzustellen und zumindest im Ansatz Beschreibungen zum Verständnis anzubieten - nicht zuletzt bezüglich der Motivation der Leser - da so exemplarisch Aussagekraft und Plausibilität des »Alternativmodells« konkret untermauert werden.

                   

Das Denkmodell Masse-Raum gekoppelter Entitäten liefert - phänomenologisch begründet (geometrisch anschaulich nachvollziehbar) - beispielsweise nicht nur Berechnungsmöglichkeiten für die magnetischen Momente von Neutron, Elektron und Proton, sondern auch exakte, einfache formalanalytische Gleichungen zur Berechnung meßbarer Größen, ausschließlich auf Grundlage möglicher Elektron-Proton-Wechselwirkungen, wie exemplarisch ...die Masse des Neutrons, GrundzustandsenergienHA, den Protonenmasse inhärenten Protonenradiuspr, die Masse des Pions, allgemein Masseberechnungen diverser Entitäten (auch die des Higgs-Bosons), die Temperatur der Hintergrundstrahlung, maximale Masse und Radius des Universums.

 

 

[pr]

                              
Masse-Radius-Konstanten-Gleichung

                           Verwendete Fehlernotation [CODATA/NIST] exemplarisch für 8,335(95), bedeutet ± 0,095

                                                                  Meßwert im Bereich von 8,3240 · 10-16 [m]  bis   8,430 · 10-16 [m]

 


[HA] exemplarisch H-Atom

 

Wie noch ausführlich erörtert wird, kann weder das SM noch das Standardmodell der Kosmologie (ΛCDM-Modell) auch nur einen einzigen Wert näherungsfrei berechnen und es fehlen mitunter fundamentale Begründungen für QM/QED/QCD basierende Rechenvorschriften. Wortwörtlich wird »Alles« mittels Großrechner-Cluster-Anlagen solange "durchgerechnet", bis die gewünschten Werte den Meßwerten entsprechen. Nicht einmal die Grundzustandsenergie des Wasserstoffatoms kann quantenmechanisch begründet, sowie hinreichend genau berechnet werden (wie noch ausführlich argumentativ ausgeführt wird).

 

 

                                        

     

 

                             

Ich beginne hier mit der Berechnungsgleichung der Masse des Neutrons, wobei - historisch betrachtet - dessen Masse-Raum gekoppelte, phänomenologisch begründete Gleichung, sowie die gleichfalls Masse-Raum gekoppelte, phänomenologisch begründete Gleichung zur Berechnung des (vermeintlich) anomalen magnetischen Moment des Neutrons innerhalb des Denkmodells erst später erfolgten. Der Vergleich mit den Berechnungsmöglichkeiten des Standardmodells zeigt, dass, gemäß des »Prinzips der Parsimonie«, die EKT der klare Sieger ist.   

 

Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)

Theoretische Berechnung der Neutronenmasse

Allgemeine Vorbetrachtungen

Aus praktischen Gründen werden Zehnerpotenzen zur Berechnung wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, dass der interessierte Leser die entsprechenden Zahlenwerte "gleich" zur Kontrollrechnung übernehmen kann (Copy&Paste).

 

 

kurz zum Verständnis zu CODATA und NIST

Das Committee on Data of the International Science Council (CODATA) wurde 1966 als Committee on Data for Science and Technology gegründet. Das National Institute of Standards and Technology (NIST) ist eine Behörde des US-Handelsministeriums, deren Aufgabe es ist, die amerikanische Innovation und industrielle Wettbewerbsfähigkeit zu fördern. Die Aktivitäten des NIST sind in physikalisch-wissenschaftlichen Laborprogrammen organisiert, die Wissenschaft und Technologie im Nanobereich, Ingenieurwesen, Informationstechnologie, Neutronenforschung, Materialmessung und physikalische Messungen umfassen. Von 1901 bis 1988 trug die Behörde den Namen National Bureau of Standards.

Für den Bereich der Physik, insbesondere der Experimentalphysik, ist relevant, das CODATA & NIST aktualisiert vorgeben, was die Referenzwerte für Meßgrößen und deren Standardabweichungen sind.

[CODATA-NIST Beispiel     Wert der Protonenmasse]

 

Die Unsicherheiten der CODATA-Werte sind in den folgenden Berechnungen meist nicht explizit benannt respektive werden nicht explizit berücksichtigt. Beispiel: Masse des Elektrons:  9,1093837015e-31  kg   9,1093837015(28)e-31, bedeutet eine Standardabweichung von ± 0,00000028e-31kg wird hier nicht berücksichtigt. Es wird mit dem Wert 9,1093837015e-31 kg gerechnet. Das ist, wie wiederholt gezeigt wird, kein Problem, da u.a. die Standardmodellphysik-Ergebnisse im Vergleich eh nicht formal-analytisch erzielt wurden und im direkten Vergleich mit den phänomenologisch begründeten einfachen Gleichungen der Elementarkörpertheorie (EKT) sprichwörtlich um (Standardabweichungs-)Dimensionen schlechter sind (später mehr dazu).

 

Kommen wir - gemäß dem Prinzip der Parsimonie  - nun exemplarisch zu exakter Wissenschaft im Sinne von phänomenologisch begründeter Physik, die zu exakten formal-analytischen Berechnungen führt:

Theoretische Berechnung der Neutronenmasse

Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet:

me = 9,1093837015e-31  kg : Elektronenmasse

me(q0)=   (4/α) · m 4,99325398628715e-28 kg

 mp = 1,67262192369e-27  kg  : Protonenmasse

c =  2,99792458e+08 m/s      α = 0,0072973525693        0,77010243595795497 = 1/(1 + me(q0)/mp)

 ∆m = 1,4056007019747e-30 kg[0]       ∆Eee =    1,2632909101359e-13  J      ~    0,78848416793  MeV

mn =  mp + me + ∆m  = 1,674938462762e-27  kg

 Vergleich mit experimentell bestimmter Neutronenmasse

mn(exp) = (1,67492749804e-27 kg)  ~ 939,56542 MeV  [Quelle: CODATA 2018]

mn(EKT) / mn(exp) ~ 1,0000065463861

 

 

[0] Ergebnis-Erweiterungs-Satire

Übrigens, man könnte, genauer, man sollte sich die obige Berechnungspräzision, wie z.B. für ∆m = 1,4056007019747e-30 [kg], im Hinblick auf die versuchsbedingten - im Vergleich zu formal-analytischen Rechnungen extremen - Standardabweichungen der Einfluss nehmenden Größen sparen. Es ist hier also kein Akt meines Unverständnisses der Zusammenhänge, sondern eine Art gewollter »Ergebnis-Erweiterungs-Satire« im Hinblick auf das, was noch gemäß Standardmodell-Postulaten alles möglich sein soll (...Berechnung und Messung des Wertes des anomalen magnetischen Moments des Elektrons bis hin zu postulierten Gravitationswellenmessungen).  

 

Zum direkten Vergleich mit den Berechnungsmöglichkeiten gemäß des SM

Im Rahmen der Quantenchromodynamik (QCD) lässt sich die Neutronenmasse angeblich iterativ berechnen.. Das ist mehr als fragwürdig, da hier offensichtlich solange korrigiert-gerechnet wird, bis der bekannte Versuchswert für die Neutronenmasse grob erreicht wird.

 

Terminologie & Notation

Iterativ bedeutet (hier): Es werden Grundannahmen und/oder Ausgangsparameter variiert und algorithmisch so oft modelliert, bis ein gewünschtes Ergebnis vorliegt. Da dieses Ergebnis ein Meßergebnis ist, werden die Berechnungsgrundlagen in Form von Entwicklungsparametern und postulierten Wechselwirkungen immer wieder in Großrechenanlagen durchgerechnet, bis das gewünschte "theoretische" Ergebnis mit dem experimentell ermittelten Meßwert übereinstimmt. Egbert Scheunemann hat das sinngemäß so formuliert: Wir schießen auf ein Scheunentor und ziehen danach konzentrische Kreise so um den Pfeil, dass dieser in der Mitte "steht"

 

... Siehe exemplarisch die Ausführungen: proton and neutron masses calculated from first principles, dort heißt es dann u.a.: ..."Die Berechnungen deuten darauf hin, dass die Masse des Nukleons (die Berechnung kann nicht zwischen Protonen und Neutronen unterscheiden) 936 MeV/c² mit statistischen und systematischen Unsicherheiten von ±25 bzw. ±22 MeV/c² beträgt." ..."Der Erfolg war möglich dank der kombinierten Leistung von zwei IBM Blue Gene Supercomputern und zwei Cluster-Rechenzentren."

Mehr Details dazu: Ab initio calculation of the neutron-proton mass difference veröffentlicht 2015

Eine weitere Standardmodell-Methode ist die postuliert Quarks basierende theoretische Berechnung aus dem Vergleich der Protonen- und Neutronen-Masse. Siehe: Calculation of Neutron-Proton Mass Difference by the Monte Carlo Method mit folgenden Ergebnissen:

Berechnungsergebnis im Freien Quark-Modell: 13% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert.

Berechnungsergebnis im Modell der starken Kopplung von Quarks: 0,78% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert.

Experimentelle Bestimmung der Neutronenmasse

Die Masse eines Neutrons kann nicht massenspektrometrisch bestimmt werden, da es keine elektrische Ladung hat. Die Masse wird bestimmt, indem man die Protonenmasse von der Deuteronmasse subtrahiert, wobei die Differenz die Masse des Neutrons plus die Bindungsenergie des Deuteriums sein soll. Hier steckt viel postulierte Theorie im Meßverfahren. Selbstbewusst annonciere ich, dass der Wert der Elementarkörpertheorie ermittelten Neutronenmasse - realphysikalisch betrachtet - der wahrscheinlichste Wert ist. Wie auch immer, die theoretische Bestimmung gemäß Gleichung [nmass] ist im Sinne des Prinzips der Parsimonie unschlagbar.

Particle Data Group zum Neutron

 

Was bedeutet dieser erste Vergleich für das SM?

Wenn man die iterativ Meßwert orientierten groben QCD-Ergebnisse und die gemäß Quark-Modell theoretischen für die Berechnung der Neutronenmasse mit dem nahezu exakten EKT-Ergebnis gemäß [nmass] vergleicht, welches ein Proton-Elektron basierendes Neutron voraussetzt, kommt man aus dem Staunen nicht mehr heraus und ahnt hier schon bereits exemplarisch, was die Stunde (für das Standardmodell) geschlagen hat. Das Ende des SM ist in Sicht.

 

 

zum weiteren Verständnis: CODATA Variationen

Es gibt für die dokumentierten Werteermittlungen, basierend auf präzisen formal-analytische Berechnungen der EKT, neben den generellen experimentellen Meßungenauigkeiten, absolut gesehen, die Problematik, dass sich die empfohlenen CODATA-Werte mit der Zeit ändern, ohne jedoch stringent die Meß(fehler)genauigkeit nachhaltig zu verbessern. Siehe exemplarisch die CODATA Werte von 1986 zum Verständnis und zum Vergleich: The 1986 CODATA Recommended Values Of the Fundamental Physical Constants

[CODATA RECOMMENDED VALUES OF THE FUNDAMENTAL PHYSICAL CONSTANTS: Gesamtauflistung 2018]

Ein neueres Postulat der Systemphysik: Das Proton ist signifikant leichter als bisher gedacht : Das belegt die (vermeintlich) bisher präziseste Messung der Protonenmasse. Siehe exemplarisch den deutschen scinexx.de-Artikel oder den englischen science.org-Artikel. Plakativ betrachtet, stellt sich hier, von außerhalb der System-Modell-Physik betrachtet, die Frage, ob das wissenschaftlich relevant ist oder ob es sich eher um mathematisch-experimentalphysikalisches Kokettieren der Protagonisten handelt. Wie auch immer, ob das Proton wirklich leichter ist und wie lange diese Aussage Bestand hat, kann niemand sagen. Man denke an den gemessenen Protonenradius, der über Jahrzehnte mit - für physikalische Messungen unglaublichen - mehr als + 4% Abweichung von den Standardmodell-Protagonisten falsch interpretiert war. Siehe später mehr dazu.

Hat das eine Bedeutung?

Für die EKT respektive deren exzellente Voraussagefähigkeit ist das (realphysikalisch) unerheblich, da hier die Denkmodellphänomenologie basierenden, formal-analytisch ermittelten Werte unschlagbar präzise mit den Meßwerten übereinstimmen, egal wer, wann, wie und warum an den CODATA-Standardabweichungen "dreht und fummelt". Das der lange Zeit "geltende" Protonenradiuswert "erschreckend" falsch war, war und ist gemäß EKT keine Überraschung. Wie schon bald hier im weiteren Leseverlauf gezeigt wird, gibt es eine im Rahmen der EKT konsistente exakte Protonenradiusberechnung, die nur von der Protonenmasse und Naturkonstanten gemäß eines einfachen formalen Zusammenhanges abhängig ist.   

SM  Für die Standardmodellphysik ist das alles unerheblich, da, wie bereits erwähnt, im Rahmen der Systemphysik-Modelle eh keine formal analytischen Berechnungen möglich sind. Dort wird alles iterativ ergebnisorientiert angepasst (präzise schön gerechnet), wie noch im Rahmen diverser Beispiele konkret erörtert wird.

 

 

 

Raum und Zeit

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär »Ordnungsmuster des Verstandes«. Um aus diesen Ordnungsmustern Physik zu erhalten, bedarf es phänomenologischer Betrachtungen und Erklärungen.

Planck, Einstein, Heisenberg und Kollegen“ waren noch als Mitbegründer des neuen (mathematischen) Denkens mit den philosophischen Aspekten vertraut und konfrontiert. Die nachfolgenden Generationen der Theoretischen Teilchenphysiker und Theoretischen Astrophysiker scheinen jedoch wenig bis kein Verständnis für erkenntnistheoretische Spielregeln zu besitzen, was sich einfachst durch die große Anzahl freier Parameter, variabler Kopplungskonstanten und beliebiger Substrukturierungsthesen objektiv feststellen läßt.

(Rhetorische) Frage? Was ist denn der Unterschied zwischen Phlogiston, Licht-Äther, Gluonen und dunkler Materie?

 

Freier Parameter und Variable

Sie können die Lautstärke des Abspielgerätes variieren oder die Helligkeit des Fernsehens, dies sind „zweckmäßige Variablen“. Auch Autos und Flugzeuge lassen sich variabel steuern. Doch keine einzige Anwendung, kein einziges Naturereignis besitzt auch nur einen freien Parameter. Merke: Jede willkürlich gewählte Größe zerstört die Funktion der Anwendung. Einfach formuliert: Ihr Auto fährt, weil es eine wahrnehmbare Ausdehnung, ein messbares Gewicht besitzt und chemisch gebundene Energie in Bewegungsenergie umwandelt. Wasserstoff und Wasserstoffmoleküle nehmen gleichfalls Raum ein und haben ein Gewicht. Nun, wie im SM postuliert, zu behaupten, dass die Bausteine des Wasserstoffs aus Objekten bestehen, die teils keine Ausdehnung haben und unbeobachtbar sind, bringt die Verkünder und Gläubigen zurück ins „barocke 17.Jahrhundert“, … „außer Phlogiston nix gewesen“…  

Georg Ernst Stahl (1659 - 1734) war neben Johann Joachim Becher (1635 - 1682) ein Hauptbegründer der Phlogistontheorie

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier (1743 - 1793) „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, dass das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

 

Schlicht betrachtet handelt(e) es sich stets um Fantasiekonstrukte, die die Fehlstellen des Wissens willküraffin füllen (sollen). Von einer autoritären Minderheit als „nützliche“ Theorieparameter eingeführt, wurden und werden diese sodann von servilen Mainstream-Wissenschaftsmagazinen und in der Folge populärwissenschaftlich weit verbreitet und letztendlich von der Masse als wissenschaftliche Errungenschaften "verdaut".

 

 

Schon Ernst Mach (1838-1916) bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach , Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

 

 

Für heutige Theoretiker ist die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik (SM) verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.

Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Diese stark theoriebeladene Suche lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Dass SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und im Vergleich zu anderen Wissenschaftsdisziplinen "unerreicht" auf die Spitze getrieben. 

Die daraus resultierenden Verselbständigungen der mathematischen Abstraktionen führen nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.

 

Methodisch generierte Beliebigkeiten

Folgendes Beispiel soll die »Standardmodell methodisch generierte Problematik« exemplarisch verdeutlichen. Zitieren wir fragmentarisch den Autor des Spektrum-Online-Artikels: Das Standardmodell der Teilchenphysik hält mal wieder vom 21.12.2022, Davide Castelvecchi:

 

Davide Castelvecchi berichtet über Physik, Chemie, Kosmologie, Energie, Mathematik und Computerwissenschaften. Er kam 2012 zu »Nature« als Assistent des Online-Nachrichtenredakteurs und später als stellvertretender Nachrichtenredakteur, bevor er 2015 in seine aktuelle Position wechselte. Zuvor war er Reporter für physikalische Wissenschaften bei »Science News« und Senior Editor bei »Scientific American«. Er hat einen Doktortitel in Mathematik von der Stanford University und einen Abschluss in wissenschaftlichem Schreiben von der University of California, Santa Cruz. Spektrum-Magazin-Angaben zum Artikelautor

 

...„Ein viel versprechender Hinweis auf eine mögliche »neue Physik«, der sich in Experimenten am Large Hadron Collider (LHC) zeigte, dem größten Teilchenbeschleuniger der Welt, hat sich in Luft aufgelöst und Hoffnungen auf eine bedeutende Entdeckung zunichtegemacht. Vor einigen Jahren waren die Physikerinnen und Physiker am CERN in Genf auf einen unerwarteten Unterschied im Verhalten von Elektronen und ihren massereicheren Vettern, den Myonen, gestoßen, wenn sie aus dem Zerfall bestimmter Teilchen hervorgehen: Myonen waren dabei augenscheinlich etwas seltener entstanden als Elektronen – ein Widerspruch zum Standardmodell der Teilchenphysik, da solch eine Diskrepanz gegen die so genannte Leptonen-Universalität verstoßen würde. Die jüngsten Ergebnisse des LHCb-Experiments deuten nun allerdings darauf hin, dass Elektronen und Myonen doch im gleichen Verhältnis erzeugt werden.

…Das LHCb-Team berichtete erstmals 2014 über eine geringfügige Abweichung bei der Produktion von Myonen und Elektronen…

…Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln. Die B-Mesonen-Anomalie schien in den folgenden Jahren allerdings immer auffälliger zu werden, und eine Reihe verwandter Messungen an B-Mesonen zeigte ebenfalls Abweichungen von den theoretischen Vorhersagen, die auf dem Standardmodell der Teilchenphysik basieren…

… Die neuesten Ergebnisse umfassen mehr Daten als die früheren LHCb-Messungen der B-Mesonen-Zerfälle und nehmen zugleich mögliche Störfaktoren genauer in den Blick. So ließen sich die offensichtlichen Diskrepanzen bei den früheren Messungen mit Kaonen zum Teil darauf zurückführen, dass einige andere Teilchen fälschlicherweise als Elektronen identifiziert worden seien, sagt LHCb-Sprecher Chris Parkes, Physiker an der University of Manchester in Großbritannien. Während die LHC-Experimente gut darin sind, Myonen aufzuspüren, ist es für sie schwieriger, Elektronen zu entdecken…

...Obwohl bereits seit Monaten darüber gemunkelt wurde, seien die jüngsten Ergebnisse überraschend gekommen, sagt der theoretische Physiker Gino Isidori von der Universität Zürich. Es schien sich ein kohärentes Bild aus verwandten Anomalien zu ergeben. Dies hätte auf die Existenz von bisher unbekannten Elementarteilchen hindeuten können, die den Zerfall von B-Mesonen beeinflussen. Isidori lobt die LHCb-Kollaboration dafür, dass sie die Probleme mit ihren früheren Analysen so »ehrlich« zugegeben hat. Gleichzeitig bedauert er jedoch, dass man die Schwierigkeiten nicht früher fand.

Andererseits könnten sich einige der anderen Anomalien, auch bei B-Mesonen-Zerfällen, die keine Kaonen enthalten, immer noch als echt herausstellen, fügt Isidori hinzu: »Noch ist nicht alles verloren.« Die Experimentalphysikerin Marcella Bona von der Queen Mary University of London, die an einem weiteren LHC-Experiment beteiligt ist, stimmt dem zu. »Es sieht so aus, als würden die Theoretiker bereits darüber nachdenken, wie sie sich trösten und neu orientieren können.«

Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein."

Dekodieren wir die euphemistischen Aussagen des Autors respektive die Fördermittel verbrauchenden haltlosen Fantasiekonstruktversuche der SMer:

...Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln...

Bedeutet: Nichts Neues, nichts weiter als eine Standardbeschäftigungstherapie mit Beliebigkeiten, die zu keinem Ergebnis führt.

Nahezu perfide sowie realitätsverweigernd ist diesbezüglich die Aussage des LHCb-Sprecher Chris Parkes:

"Das Ergebnis dürfte viele Theoretiker enttäuschen, die viel Zeit damit verbrachten, Modelle zu entwickeln, die die Anomalien erklären könnten. »Ich bin mir sicher, dass die Leute gerne einen Fehler im Standardmodell gefunden hätten«, sagt Parkes, aber letztlich »macht man die beste Analyse mit den Daten, die man hat, und sieht, was die Natur einem gibt. So funktioniert Wissenschaft wirklich"

Er lobt implizit Theoretiker und hat Verständnis für deren Trauer, Theoretiker die sinnfrei Fehlmeßungen respektive Fehlinterpretationen zeitintensiv u.a. mathematisch aufarbeiten und propagiert, das das Standardmodell der Teilchenphysik jedoch, als Abbild der Natur, obsiegt hat.

Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein."

Bedeutet, von außen ergebnisoffen, rational-analytisch betrachtet, einfach und klar ausgedrückt: Das Standardmodell taugt nichts. Sowohl die involvierten, von Steuergeldern finanzierten, Experimentatoren sowie die angesiedelten gleichfalls steuergeldfinanzierten SM-Theoretiker sind nutznießende Gläubige ihrer selbst geschaffenen Glaubens-Fantasien, die als Wissenschaft wortwörtlich verkauft wird. Servile Wissenschafts-Magazine transportieren naiv und unkritisch diesen Nonsens.

                                                                     

Im Guardian schrieb die Theoretische Physikerin Sabine Hossenfelder am 26. September 2022 u.a. Folgendes:

..."Unter vier Augen geben viele Physiker zu, dass sie nicht an die Existenz der Teilchen glauben, für deren Suche sie bezahlt werden..."  ..."Sie rechtfertigen ihre Arbeit damit, dass es sich um eine gute Praxis handelt, oder dass ab und zu einer von ihnen zufällig auf eine Idee kommt, die für etwas anderes nützlich ist. ..."Als ehemalige Teilchenphysikerin macht es mich traurig zu sehen, dass dieses Gebiet zu einer Fabrik für nutzlose akademische Studien geworden ist....

Seit den 1980er Jahren haben die Physiker einen ganzen Teilchenzoo erfunden, dessen Bewohner Namen tragen wie Preonen, Sfermionen, Dyonen, magnetische Monopole, Simps, Wimps, Wimpzillas, Axionen, Flaxionen, Erebonen, Acceleronen, Cornucopionen, Riesenmagnonen, Maximonen, Makros, Wisps, Fips, Branonen, Skyrmionen, Chamäleons, Cuscutonen, Planckonen und sterile Neutrinos, um nur einige zu nennen... Alle Experimente, die nach diesen Teilchen suchten, gingen leer aus"...

"Experimentelle Teilchenphysiker wissen um das Problem und versuchen, sich von dem zu distanzieren, was ihre Kollegen in der Theorieentwicklung tun. Gleichzeitig profitieren sie davon, denn all diese hypothetischen Teilchen werden in Förderanträgen verwendet, um Experimente zu rechtfertigen. Und so halten auch die Experimentalphysiker ihren Mund. So bleiben Leute wie ich, die das Fachgebiet verlassen haben - ich arbeite jetzt in der Astrophysik - die einzigen, die in der Lage und willens sind, die Situation zu kritisieren"...

Es gibt viele Faktoren, die zu diesem traurigen Niedergang der Teilchenphysik beigetragen haben. Zum Teil ist das Problem sozialer Natur: Die meisten Menschen, die in diesem Bereich arbeiten (ich war früher einer von ihnen), glauben wirklich, dass die Erfindung von Teilchen ein gutes Verfahren ist, weil es das ist, was sie gelernt haben, und was alle ihre Kollegen tun.

In einigen Fällen besteht die Aufgabe der neuen Teilchen darin, eine Theorie ästhetisch ansprechender zu gestalten, aber in vielen Fällen besteht ihr Zweck darin, statistische Anomalien zu erklären. Jedes Mal, wenn eine Anomalie gemeldet wird, schreiben Teilchenphysiker schnell Hunderte von Artikeln darüber, wie neue Teilchen die Beobachtung angeblich erklären. Dieses Verhalten ist so üblich, dass es sogar einen Namen dafür gibt: "Ambulance-chasing", nach der anekdotischen Strategie von Anwälten, Krankenwagen zu verfolgen, in der Hoffnung, neue Mandanten zu finden.

Ambulance-chasing" ist eine gute Strategie, um die eigene Karriere in der Teilchenphysik voranzutreiben. Die meisten dieser Arbeiten bestehen die Peer Review und werden veröffentlicht, weil sie technisch nicht falsch sind. Und da die "Ambulance-Chaser" die Arbeiten der anderen zitieren, kann jeder von ihnen schnell Hunderte von Zitaten anhäufen. Aber für den wissenschaftlichen Fortschritt ist das eine schlechte Strategie. Nachdem die Anomalie verschwunden ist, werden diese Arbeiten irrelevant.

Dieses Verfahren, Teilchen zu erfinden und sie dann auszuschließen, wird schon so lange praktiziert, dass es Tausende von Professoren mit festen Stellen und Forschungsgruppen gibt, die davon leben. Es ist zu einer allgemein akzeptierten Praxis in der Physikgemeinschaft geworden. Niemand stellt auch nur in Frage, ob dies sinnvoll ist. Zumindest nicht in der Öffentlichkeit"...

 

Sabine Hossenfelder schreibt auch unmißverständlich von Lügen und Blödsinn ihrer Kollegen ...

Erwiderungs-Kommentar zu Ihrem Blogartikel: CERN produziert Marketingvideo für neuen Collider - und es ist voller Lügen (CERN produces marketing video for new collider and it’s full of lies) am 7.Dezember 2018 [7.28 AM]:

Ein Video über ein neues wissenschaftliches Instrument, dessen Finanzierung diskutiert wird, sollte beim Zuschauer einen vernünftigen Eindruck hinterlassen, was das Instrument leisten wird... Natürlich sehen die Physiker, die das sehen, nichts Falsches daran. Denn sie wissen, dass es Blödsinn ist. Und sie haben sich an diesen Schwachsinn gewöhnt, so dass sie denken, dass es einfach zur Tagesordnung gehört. Die moralische Korruption, die hier stattgefunden hat, ist bemerkenswert.

Am gleichen Tag schreibt Frau Hossenfelder [12.36 PM] einem Kommentator namens Tommaso Dorigo ... "Wir alle wissen, dass Sie Teilchenphysiker sind und an dem Thema beteiligt sind. Ich bin nicht im Entferntesten überrascht, dass es Ihnen nicht gefällt, dass ich öffentlich sage, was jeder in der Branche seit Jahrzehnten weiß."...

Sie schreibt in einem weiteren Erwiderungskommentar am 8. Dezember [2.49 AM]... "Wir können nur dann klug entscheiden, wenn wir uns die Fakten ansehen, anstatt uns von Wunschdenken leiten zu lassen. Deshalb ist falsche Werbung wie die oben genannte ein Problem. Menschen, die die Theorien nicht verstehen, glauben sie. Selbst diejenigen, die die Theorien verstehen, lassen sich von der übermäßig optimistischen Sichtweise beeinflussen. Ich weiß, dass sie es nicht hören wollen, aber kognitive Verzerrungen und motivierte Wahrnehmung beeinflussen die Art und Weise, wie wir Entscheidungen treffen. Selbst als Wissenschaftler. Besonders in großen Gruppen."...

... Wie ich in meinem Buch darlege, funktioniert die Theorieentwicklung, insbesondere in der Hochenergiephysik, derzeit schlecht. Man kann "Vorhersagen" für alles konstruieren, was man will; deshalb sind diese Vorhersagen völlig wertlos"

 

"CERN produces marketing video for new collider and it’s full of lies" am 7.Dezember 2018 [7.28 AM] u.a.

A video about a new scientific instrument whose funding is being discussed should leave the watcher with an reasonable impression what the instrument will do…

…Of course the physicists watching this see nothing wrong with this. Because they know it's bullshit. And they have gotten used to this bullshit, so they think it's just business as usual. The moral corruption that has happened here is remarkable. 

[12.36 PM] einem Kommentator namens Tommaso Dorigo   …”We all know you are a particle physicist and have stakes in the issue. I am not remotely surprised that you don't like me saying publicly what everyone in the business has known for decades.”… 

8. Dezember [2.49 AM] …”We can only make it wisely if we look at the facts rather than let ourselves be guided by wishful thinking. That's why false advertisement like the above is a problem. People who don't understand the theories believe it. Even those who understand the theories are influenced by the overly optimistic outlook. I know they don't want to hear it, but cognitive biases and motivated cognition does influence the way we make decisions. Even as scientists. Especially in large groups.“…

… As I lay out in my book, theory development especially in high-energy physics is presently working badly. You can construct "predictions" for anything you want; therefore those predictions are utterly worthless.”…

 

 

 

 

Der Paradigmenwechsel

Konsequenzen der Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes

erweitertes Vorwort

Kurz und knapp

 

Es werden bereits hier (im »Kurz und knapp« - Vorwort) exemplarisch Berechnungsgleichungen und Herleitungen gezeigt, um zu dokumentieren, das die formalen Zusammenhänge, die sich stringent aus einer Masse-Raum-Kopplung ergeben, wahrlich einfach sind. In allen Fällen folgen dann später detailliert die dazugehörigen konsistenten Denkmodellaspekte, die zu den Gleichungen führen. Es gibt also erst einmal keine Notwendigkeit für Leser, verstehen zu können, warum die Gleichungen im Detail so aussehen. Wichtig ist nur, dass jeder unmißverständlich möglichst früh erkennen kann, das in den Textausführungen einfach ohne Schöntuerei wirklich für einfach steht.

 

Inhalts-analytisch erstaunlich ist die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie), sowie vermeintlich konkurrierende Modelle (wie die prominenten Stringtheorien) keinerlei rational logischer Kritik standhalten, wie im weiteren Verlauf im Zusammenhang und Vergleich mit der Elementarkörpertheorie (EKT) an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische Totschlagargument, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum Rundumschlag ins Feld geführt.

Interessanterweise sind viele der den Standardmodellen zu Grunde liegenden Experimente, an sich betrachtet, brauchbar. Die Probleme beginnen meist (erst) mit den theorieinduzierten, gewünschten Versuchsergebnis-Interpretationen.

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(-Eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, werden bei Bedarf Theorie erhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.

Zur Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für "richtig" hält, sagt nichts über den (erkenntnistheoretischen) Wert der "Theorie zum Etwas". Eine Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes, leicht zu beobachtendes Phänomen, sofern man sich mit den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt. Aber warum basiert die aktuelle Theoretische Grundlagen-Physik auf Meinungen, statt auf begründeten Wissen?

Sind es letztendlich nur - aus naturwissenschaftlicher Sicht inakzeptabel -  wirtschaftliche Interessen der Nutznießer und Lobbyisten, die Forschungsgelder abgreifen und ihre materielle Existenz begründen wollen? Stellt man die enorme Anzahl von Veröffentlichungen im Bereich der Standardmodelle ins Verhältnis zu dem Erkenntnis-Gewinn, so handelt es sich - in unserer heutigen digitalisierten Zeit salopp formuliert -  fast ausschließlich um Datenmüll. Das liegt schlicht daran, dass die vermeintlichen Meßergebnisse bereits stark theoriebeladen sind und die theoretischen Ansätze aus idealisierten, genäherten Gleichungen stammen, die in der Urform keine formal-analytischen Lösungen besitzen und deren näherungsreduzierte Gestaltungen nichts weiter als mathematische Möglichkeiten liefern, die realphysikalisch bedeutungslos sind, insbesondere da über die Rückkopplungen der theoriebeladenen selektiven Messungen, nur die gewünschten Meßergebnisse weiter verwendet werden. So entstand und entwickelt sich ein erkenntnisbefreites, formal und wirtschaftlich selbsterhaltendes System.

Dass die Systementwickler und Profiteure jede halbwegs logische Alternativforschung schon im Ansatz beseitigen wollen, ist egoistisch menschlich nachvollziehbar. Jede formal-analytische Lösung, die realphysikalische Werte liefert, stellt eine existenzielle Bedrohung der Standardmodelle dar. Populärwissenschaftlich getragen wird das System von servilen Wissenschaftsmagazinen, deren indoktrinierten Lesern und unwissenden Epigonen, die jeden populären Theorie-Quatsch beklatschen. Es drängt sich der Verdacht auf, dass Menschen, deren Schaffensdrang nicht in geeigneter Weise befriedigt werden kann, weil real nichts Neues für sie zu finden ist, Trivialitäten dokumentieren und formalisieren, in neue Worte kleiden und Satzstrukturen verwenden, die ein Normalmensch nicht versteht und dessen Achtung der Autor quasi automatisch erhascht. Es macht im Ergebnis keinen Unterschied ob es in diesem System Wissenschaftler gibt, die "wirklich" voller Inbrunst an diese, an Naivität und Widersprüchen schwer zu überbietenden, "theoretischen Implikationen" glauben, oder ob es letztendlich banale wirtschaftliche Interessen gepaart mit akademischer Macht sind, die Wissenschaftler als elitäre Nutznießer ausnutzen, um baren Unsinn zelebrieren und verkünden zu können.

Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, dass ein eher kleiner Kreis von „Wissenschaftlern“ - trotz dokumentierter Erkenntnislosigkeit, die sich u.a. durch die qualitative wie quantitative inkonsistente Beliebigkeit der postulierten Theorieentitäten und deren postulierten Wechselwirkungen manifestiert - bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und argumentativ begründete Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

Die schlichte, übergeordnete Antwort lautet gemäß Gustave le Bon: „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ 

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Methodisch organisierter Realitätsverlust als Wissenschaftsgrundlage

Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammt aus der Quantenmechanik. Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden. Anschaulichkeit und Phänomenologie werden ausgeblendet.

 

Je nach Vorwissen, zur Erinnerung, zur Kenntnisnahme und zur Selbstanalyse

 

Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (Mathematik) gläubigen Menschen ins "Spiel".

Kommen wir zu der Forderung der »SMer«SM, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht" (es darf gelacht werden).

»SMer« sind sich siegessicher, dass das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert, sofern wir das - aus vielerlei Gründen absurde und argumentativ widerlegte - Postulat der (realphysikalisch möglichen) Messung von Gravitationswellen hier erst einmal nicht berücksichtigen und Physik begutachten wollen.

Naja, ich "sage" es mal so, stell' Dir vor es geht.

Ich möchte das an dieser Stelle nur thematisch "anreißen", da es gemäß inhaltlichen Umfangs, konkreter Ausführungen etc. weit weg vom Primären über Denkmodellaspekte führt. Eine sehr ausführliche Betrachtung mit einer unerwarteten phänomenologisch begründeten, formalanalytischen - ohne Übertreibung - sensationellen Alternative und im Ergebnis erstaunlichen Werteberechnungen findet sich später in den vorliegenden Ausführungen zu den magnetischen Momenten.

Bevor »wir«, die Leser, jedoch diese komplexen Detail-Betrachtungen der Anomalen Magnetischen Momente erreichen, sind die Standardmodelle, nach dem »expressionistischen Stirb- und Werde-Prinzip« im Sinne des »Prinzips der Parsimonie« schon tot. Warum ist das so?

 

     

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden.

 

Sowie, dass der Masse-Raum gekoppelte Mikrokosmos-Formalismus gleichfalls (formal analog) makroskopische Wechselwirkungen und Größen beschreibt und berechnet, ohne das hier erst einmal näher auszuführen:

 

 

 

(Rückblickend eine mathematische Betrachtung respektive  eine formale Ankopplung)

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist allgegenwärtig. Verstehen wir die Cosinusfunktion als eine um π/2 phasenverschobene Sinusfunktion, dann ist die Fourier-Basis-Funktion die Sinusfunktion. Konsequent minimalistisch gedacht, war/ist es also nahe liegend, nicht die Fourier-Reihe-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst. Resultierend lassen sich intuitiv logische Randbedingungen, im Rahmen der Elementarkörpertheorie, für Basisbetrachtungen formulieren.

 

Mit anderen Worten

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer »konstruktiven Beschreibungsverarmung«, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen wortwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

Einzig folgende Meßwerte werden für die EKT benötigt:

Masse des ElektronsMasse des Protons, Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, der Wert der elektrischen Elementarladung, der Wert der Dieelektrizitätskonstanten.

Das wären 7 freie Parameter, die von der Natur vorgegeben und relativ einfach meßbar sind.

Da wir hier die Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, den Wert der Dieelektrizitätskonstanten zu den freien Parametern der EKT zählten, müssen wir diese gemäß der verwendeten Standardmodell-Terminologie jedoch wieder abziehen, da diese nicht als freie Parameter aus Sicht der Standardmodelle gelten.

Bedeutet:

Die EKT benötigt nur 2 (!!!) freie Parameter!

Die Masse des Protons und die Masse des Elektrons

 

 

"Andererseits"...

Zum Vergleich: Das Standardmodell der ElementarteilchenphysikSM zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Das Standardmodell der Teilchenphysik benötigt (derzeit) 25 freie ParameterFP, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…

 

[FP]

25 freie Parameter des Standardmodells der Teilchenphysik (SM)
3 Kopplungskonstanten
der starken Wechselwirkung ( 8 Gluonen, Farbladung) αs
der elektromagnetischen Wechselwirkung (Photon, elektrische Ladung) α
der Schwachen Wechselwirkung (W+, W-, Z0αW
6 Quarkmassen
3 Massen der geladenen Leptonen (Elektron, Myon, Tau)
4 Winkel zur Beschreibung von Quark-Zerfällen
1 Winkel zur Beschreibung der CP-Verletzung in der starken Wechselwirkung
Masse des Higgs-Bosons
3 Massen und 4 Mischungswinkel massebehafteter Neutrinos

                 

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung respektive der ursprüngliche Formalismus "verletzt", zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu (postulierten) Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. 

 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

 

SM Bei genauer Sicht gibt es das SM nicht. Es ist bereits in sich fragmentiert und diesbezüglich unvereinbar.

Hintergrund

Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie, die weder in der QED noch allgemein formuliert im SM existiert, skizziert werden.

In der Elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der Elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht.

Das Photon soll sich in der Elektroschwachen Theorie wie in der QED verhalten. Diese Annahme/Forderung ist (phänomenologisch) haltlos, da das »Photon der QED« nicht dem Mischzustand der elektroschwachen Theorie entspricht.

Auch ohne mathematische Konkretisierung lässt sich der Widerspruch qualitativ verstehen. Es wird im Rahmen der QED ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Theorie-Ergebnis eine unendlich große Ladung besitzt. QED-Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche, beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, das Ergebnis war bekannt.

Bedeutet: Statt unverstandene, phänomenologiebefreite Größen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, Realphysik befreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche VoraussagenVE liefert, bleibt (erkenntnistheoretisch) »Nichts«.

 

VE Die „gemessene“ Stärke der Vakuumenergie(dichte) stellt wortwörtlich eines der größten Probleme der modernen System-Physik dar, da die experimentell gefundenen und die theoretisch vorhergesagten Werte extrem voneinander abweichen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 (!!!) niedriger als in den theoretischen Berechnungen des Standardmodells.

 

Des Rätsels Lösung zur Vakuumenergie liefert die Elementarkörpertheorie

 

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Betrachtung der Objekte, lösen sich die "Unendlichkeiten" plausibel auf. Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, ungeheuer große Vakuumenergiedichte, "findet" eine plausible Erklärung in der Elementarkörpertheorie.

 

Stirb- und Werde- Ausgangssituation

Heute regt es höchstwahrscheinlich niemanden mehr auf, wenn rückblickend über den Wechsel vom »Ptolemäischen Weltbild« zum »Heliozentrischen Weltbild« berichtet wird. Das war jedoch zu der damaligen Zeit eine extreme Situation.

Es gab zwar bereits im antiken Griechenland Überlegungen, dass die Erde um einen fixen Punkt kreist. Dennoch war es Nikolaus Kopernikus (1473–1543), der mit seinem Hauptwerk „De revolutionibus orbium coelestium“ 1543 für eine wissenschaftliche Sensation sorgte. Er stellte ein mathematisch-naturphilosophisches Modell vor, in dem sich die Erde und die anderen Planeten auf Ellipsen um die Sonne drehten. Bis heute wird daher das heliozentrische auch als kopernikanisches Weltbild bezeichnet.

 

In unserem Sonnensystem bewegen sich die Planeten nicht um die Sonne, sondern um den gemeinsamen Schwerpunkt (Baryzentrum). Dass die reale Situation komplex ist, läßt sich leicht folgend u.a. aus folgenden faktischen Gründen verstehen, da nicht nur alle Planeten sondern u.a. auch deren Trabanten (Monde) im Gesamtbild (mit)wechselwirken. Weder die Massen der Sonnensystemobjekte sind hinreichend bekannt, noch ist darüber hinaus sicher, welche Objekte (Monde) noch gar nicht entdeckt wurden.

 

Das geozentrische Weltbild entsprach der alltäglichen Erfahrung des Beobachters und widersprach nicht der Bibel. Die christlichen Kirchen übernahmen und verteidigten es entschieden. Das geozentrische Weltbild wurde bis zum Beginn der Renaissance nicht öffentlich hinterfragt. Erst mit Nikolaus Kopernikus, Giordano Bruno und Galileo Galilei traten ernstzunehmende Kritiker auf, die wegen der Befürwortung des »heliozentrischen Systems des Kopernikus« von der Inquisition wegen Häresie angeklagt wurden. Es ging für die Kritiker wortwörtlich um »Leben und Tod«. Tod für die, die sich gegen bestehende Ansichten auflehnten. Fakten und wissenschaftliche Argumentationen waren dem Glauben untergeordnet. Interessant zu erwähnen. Kopernikus war ein Bibelgläubiger. Er glaubte daran, dass die Erde - und damit der Mensch - im Zentrum des Kosmos steht. Sein Ziel war es, das ptolemäische Weltbild zu vereinfachen. Kopernikus will Widersprüche des Systems aus der Welt schaffen.

 

Geozentrisches Weltbild - Epizykeltheorie

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, dass die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, dass die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

 

Kopernikus wußte, was ihm wegen seiner Forschungs-Ergebnisse eines heliozentrischen Weltbildes von Seiten der katholischen Kirche droht. Im Vorwort der Abhandlung wendet er sich deshalb direkt an den Papst und verweist darauf, dass die gnädige katholische Kirche schon Wissenschaftlern vor ihm die Freiheit gegeben habe, über die Bahnen der Planeten nachzudenken. Tatsächlich erweist sich der Vatikan zu Kopernikus Lebzeiten gnädig – wohl auch deshalb, weil er zum Zeitpunkt des Erscheinens schon im Sterben liegt. Letztendlich kommt »De revolutionibus orbium coelestium«  1616 auf den Index verbotener Bücher, da ist Kopernikus schon lange tot: Er stirbt am 24. Mai 1543 an einem Schlaganfall.

 

 

Ergebnisoffenheit heute - Was hat sich  zu "damals" geändert? - Hat sich was geändert?

Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll?

Ob der Kritiker und Denkmodellkonstrukteur auch heute noch Folter und Tod fürchten muß? Höchst wahrscheinlich nicht. Aber, wer weiß, sage niemals nie. Sicher ist Folgendes: Heute werden Karrieren verhindert und Alternativdenker diskreditiert.

 

 

 

Was passiert mit Kritikern der Standardmodelle?

Selten, dass sich Wissenschaftler in Blog-Kommentarfeldern äußern. Hier mal eine dieser Ausnahmen, wo Prof. Dr. Pavel Kroupa (Astrophysiker) u.a. auf massive Zensur im Wissenschaftsbetrieb hinweist:

…„Es gilt als riskant, “ketzerische” Arbeiten, zu zitieren.

Brillanten Wissenschaftlern, mit herausragenden akademischen Qualifikationen, wird z.T. Diskussionsverbot erteilt, wenn sie sich mit physikalisch interessanten alternativen Ansätzen beschäftigen. Erst letzte Woche hatte ich einen hochbegabten jungen Physiker zu Besuch, der mir schlimmstes berichten musste.“…

„Das obige ist beängstigend, weil nämlich einfachere Alternativen im gleichen Zuge unterdrückt werden. So kann es ja dann nicht überraschen, dass diese Alternativen nicht so gut ausgearbeitet sind, sodass Simon White “überzeugend” argumentieren kann, dass es eben keine überzeugende Alternativen gibt. Dieses ist ein zirkulares Argument, welches den Steuerzahler, der unsere Forschung finanziert, eigentlich interessieren sollte.

Wie bitte sehr soll denn der hochbegabte junge Physiker seine Forschung zu Ende führen, wenn er keine Unterstützung bekommt? Es ist so, als würde man Galileo verbieten, durch sein Teleskop zu schauen, weil er Dinge sehen könnte, die nicht ins Weltbild passen“… Quelle: Anmerkungen zur Dunkle Materie Debatte

Prof. Dr. Pavel Kroupa führt am Beispiel von Prof. George Djorgovski aus, wie herablassend über alternative Theorien und deren Vertreter hergezogen wird. Das ist insbesondere unter dem Aspekt, dass Prof. George Djorgovskis Ausführungen online weltweit verbreitet werden, eine sehr bedenkliche Ausdrucksform des gegenwärtigen Diskurses.  

Prof. Dr. Pavel Kroupa, Textauszug aus darkmattercrisis.wordpress.com:

... "Prof. George Djorgovski lehrt Kosmologie am CalTech (California Institute of Technology) und sein Kurs kann von Studenten in aller Welt online besucht werden. Um Alternativen zum kosmologischen Standardmodell zu verwerfen, führte er kürzlich in einem öffentlichen Forum (siehe unten) das Argument an, dass die Allgemeine Relativitätstheorie "konform" sei und dass diese "gut getestet" sei, MOND hingegen nicht. Er schreibt weiter, dass "die Kosmologie dazu neigt, eine bestimmte Art von Verrückten anzuziehen, und einige von ihnen haben sogar einen Doktortitel". "Einige waren großartige Wissenschaftler, bevor sie in die Abwärtsspirale gerieten", womit er, wie es aus dem Kontext hervorgeht, Forscher meint, die an MOND arbeiten"...

..."Prof. George Djorgovski teaches Cosmology at CalTech and his course can be followed by students world wide. In order to dismiss alternatives to the standard cosmological model, he recently used in a public forum (see below) the argument that General Relativity is "conformal", and that this is "well tested", while MOND is not. He further writes that "Cosmology tends to attract a certain type of crackpots, and some of them even have PhD's." "Some were great scientists, before sinking into the downward spiral" thereby implying, it seems from the context, researchers who work on MOND."... 

 

Tatsache ist: Es ist sehr schwer für Menschen, zu akzeptieren, dass alles, was und woran man ein Leben lang geglaubt hat, plötzlich keine Bedeutung mehr hat und mitunter willentlich inszeniert wurde und eine große Lüge war und ist. Mit den Worten Gustave le BonsNie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“

 

 

Wie auch immer, es ist soweit. »Ihr« müsst jetzt stark sein und für immer Abschied nehmen von dem was war.

 

Jetzt kommt Kurt

weder im herkömmlichen Verständnis Autist noch Inselbegabter

Was passiert, wenn seit mehr als 100 Jahren nicht nur im Gesellschafts- und Wirtschafts-Alltag, sondern auch im Bereich der physikalischen Modellgrundlagenforschung - aphoristisch ausgedrückt - , konsequent gemäß der folgenden Aussagen agiert wurde und nach wie vor agiert wird:

Wenn die Theorie nicht mit den Tatsachen übereinstimmt, umso schlimmer für die Tatsachen.“[H]

Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.“ [F]

Dann kommt Kurt

[H] (… ein wörtlich etwas abgewandeltes Zitat von Georg Wilhelm Friedrich Hegel (1770 – 1831)

[F] Theodor Fontane (1819 – 1898)

Kurt ist der zweite Vorname von Dirk Freyling gemäß seines Vaters Kurt Freyling

Inspiriert durch das Lied „Hier kommt Kurt“ von Frank Zander

 

Um das im Ansatz zu verstehen, werden "jetzt" herrschende fundamentale Versuchs-Interpretationen und assoziierte Theorie-Wechsel-Wirkungs-Postulate in Frage gestellt und mittels Indizienbeweise, gemäß dem »Prinzip der Parsimonie«, plakativ formuliert, widerlegt. Ich kann mir sehr gut vorstellen, das als Erstreaktion, vom Quantenfeldtheoretiker bis zum Laienliebhaber der Standardmodelle, wenig Verlust-Angst aufkommt, da das Folgende so sehr dem bestehenden Wissensglauben widerspricht, das es als »Blödsinn« abgetan wird. Nun »ihr Lieben«, »ihr« habt theoriebeladen geglaubt aber nicht ergebnisoffen hingeschaut. »Ihr« hattet viele Möglichkeiten in den letzten mehr als 100 Jahren selbst darauf zu kommen. Doch die egozentrische Begeisterung Eures eigenen Schaffens und in dem Zusammenhang »Eure« zunehmende Begeisterung für Nicht-Widerlegbares und nicht Nicht-Detektierbares führten im Ergebnis zu einer Art von extrem willkürlicher, inkonsistenter »mathematischer Metaphysik« ohne Erkenntnisgewinn.

 

 

Die experimentelle Sachlage

Alle Versuche die durchgeführt wurden, bestätigen gemäß Versuchsergebnissen, deren Berechnungsmöglichkeiten und Meßwerten das, was die Elementarkörpertheorie auf Grundlage der Masse-Raum-Kopplung phänomenologisch beschreibt und einfachst formal-analytisch in sehr guter Übereinstimmung mit Meßwerten berechnet.

 

Mein Aufklärungs-Tanz beginnt...

Stellen wir uns metaphorisch vor, es gäbe einen Raum der physikalischen Erkenntnis, dann ist die folgende Bestandsaufnahme ein Türöffner.

i)

Es ist bzw. war eine zentrale Frage, warum Teilchenphysiker glauben und "messen", dass das Elektron keinen oder einen Radius kleiner als 10 -19 [m] besitzt und theoretisch strukturlos als »Punkt« behandelt werden kann.

U.a. auf Grund der theorieinduzierten Mißverständnisse und Falschpostulate zur Phänomenologie und Nicht-Existenz des Elektronenmasse gekoppelten Elektronenradius, ausgehend vom Standardmodell der Teilchenphysik, wird überdeutlich (werden) wie fatal diese Standardmodell-Annahmen waren und sind.

 

Was ist und was darf sein?

Obige Grafik "illustriert" und beschreibt formal-minimalistisch fast »Alles« was man über den Ruhe-Radius des Elektrons re wissen sollte.

Die Elementarkörpertheorie beschreibt konsistent, sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner des Elektrons, als auch hochenergetisch im Teilchenbeschleuniger. Hier gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standardphysiker und deren Anhänger.

In allen Experimenten bestätigt

Dieses Elementarkörpertheorie basierende fundamentale Wissen wird, ich wiederhole mich hier aus didaktisch-faktischen Gründen, durch alle (!) Meßergebnisse der (differentiellen) Streuquerschnitte der elastischen und inelastischen Streuung an Elektronen bestätigt und steht gleichzeitig in einem eklatanten Widerspruch zu den Aussagen der Elementarteilchenphysik. Aber nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Verbindung mit Teilchenbeschleunigern sind "falsch" (gemessen), sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen und theoretischen Forderungen bezüglich ruhender Elektronen sind falsch, wie (später wiederholt exemplarisch) sachlich argumentativ erklärt wird.

Tatsache ist: Außerhalb des "Interpretationsspielraumes" des Teilchenbeschleunigers kommt der Elektronenmasse inhärente Elektronenradius re, respektive der klassische Elektronenradius re(klassisch)=((α/4)re), in allen (!) verwendeten Gleichungen zur Berechnung der Streuquerschnitte bei elastischen und inelastischen Streuungen an Elektronen vor (Møller-Streuung, Compton-Streuung, Elektron-Positron-Paarbildung, Photoelektrischer Effekt, Klein-Nishina-Gleichung, Bethe-Bloch-Sternheimer-Gleichung, Kramers-Heisenberg-Formel usw.) und steht in einem phänomenologischen Zusammenhang mit der Comptonwellenlänge (des Elektrons).

Der differentielle Streuquerschnitt / nimmt für Elektronen stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Details zu fW finden sich exemplarisch zu den jeweiligen "Streugleichungen", von denen im Anschluss einige explizit aufgeführt sind. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(kl) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) Masse-Radius gekoppelt energetisch analysiert. Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zu Gesamtenergie (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re, der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe  re · π/2)

 

Beispiele

 

Zum Thema Klassischer Elektronenradius und klassischer Protonenradius

Zum Verständnis Seite 106 Kapitel 8.1.1 Coulomb-Streuung der Strahlionen am Restgas: Auslegung eines Kollimationssystems zur Lokalisierung von Umladungsverlusten und Beseitigung von Desorptionsgasen hochenergetischer, intensiver Schwerionenstrahlen in Ringbeschleunigeranlagen

..."Unter der Annahme, dass die Elektronen um den Kern des Ions keinen Beitrag zur Streuung, sondern nur zum Energieverlust liefern, lässt sich die Verlustrate eines Ionenstrahls durch Coulomb-Streuung an Restgaspartikeln beschreiben durch:

An diesem Beispiel sieht man "sehr schön", wie sich die Systemphysik "selbst an der Nase herumführt(e)". Was soll denn den phänomenologischen Unterschied zwischen Elektron und Proton ausmachen? [Für Nicht-SM-Gläubige eine rhetorische Frage] Offensichtlich ist es ausschließlich das Masse-Radius-Verhältnis, welches Elektron und Proton (hier) unterscheidet. Energetisch und phänomenologisch sind Elektron und Proton elektrisch identisch starke Ladungsträger! Das liegt schlicht daran, dass im Bild der Elementarkörpertheorie, experimentell bestätigt, die (elektrische) Ladung nur von dem konstanten Produkt aus Masse und Radius abhängig ist und somit - trotz unterschiedlicher Massen der "Ladungsträger" - stets zu einer elektrischen Energie führt, die für alle »Elementarladungstragenden Massen« gleich ist. Unterschied zur Elektronenstreuung: Der Streuquerschnitt für das ~ 1836-mal kleinere Proton gemäß "Flächenmaß" ist um den Faktor (rp/re)² = (me/mp)² kleiner.

 

Apropos Protonenradius und dem postulierten fragmentierten, asymmetrischen »Protoninnenleben« und der experimentell bestätigten symmetrischen »Protonwechselwirkung(en)« vorweg (Herleitung der Gleichung(en), Erörterung... folgen später)

Das Produkt aus Protonenmasse und Protonenradius ist - Masse-Raum gekoppelt - nur von Naturkonstanten abhängig. Mit Kenntnis der Protonenmasse ergibt sich der Protonenmasse inhärente Protonenradius gemäß EKT:

Verwendete Fehlernotation exemplarisch für 8,335(95), bedeutet ± 0,095

Meßwert im Bereich von 8,3240 · 10-16 [m]  bis   8,430 · 10-16 [m]

 

 

SM-Märchen

Die SM-Märchen vom Punkt-Elektron und dem Quarks-Gluonen-...-Sonstwas basierendem, asymmetrisch-ladungsfragmentierten Proton wird (auch) durch obige Gleichung zur Coulomb-Streuung an Restgaspartikeln exemplarisch widerlegt. Proton und Elektron verhalten sich "streutechnisch" vollkommen analog. 

 

Quarks sind Fermionen, wie das SM behauptet, zu diesem experimentell mehrfach bestätigten fatalen Theoriefehler kommen wir weiter unten...

Der nicht vorhandene Spin der Quarks und Gluonen

 

       

 

 

 

 

Das Denkmodell Masse-Raum gekoppelter Entitäten liefert - phänomenologisch begründet (geometrisch anschaulich nachvollziehbar) - nicht nur Berechnungsmöglichkeiten für die magnetischen Momente von Neutron, Elektron und Proton, sondern auch exakte, einfache formalanalytische Gleichungen zur Berechnung meßbarer Größen, ausschließlich auf Grundlage möglicher Elektron-Proton-Wechselwirkungen, wie exemplarisch ...die Masse des Neutrons, GrundzustandsenergienHA, den Protonenmasse inhärenten Protonenradiuspr, die Masse des Pions, allgemein Masseberechnungen diverser Entitäten (auch die des Higgs-Bosons), die Temperatur der Hintergrundstrahlung, maximale Masse und Radius des Universums.

 

[pr]

                             
Masse-Radius-Konstanten-Gleichung

 


[HA] exemplarisch H-Atom

 

Wie noch ausführlich erörtert wird, kann weder das SM noch das Standardmodell der Kosmologie (ΛCDM-Modell) auch nur einen einzigen Wert näherungsfrei berechnen und es fehlen mitunter fundamentale Begründungen für QM/QED/QCD basierende Rechenvorschriften. Wortwörtlich wird »Alles« mittels Großrechner-Cluster-Anlagen solange "durchgerechnet", bis die gewünschten Werte den Meßwerten entsprechen. Nicht einmal die Grundzustandsenergie des Wasserstoffatoms kann quantenmechanisch begründet sowie hinreichend berechnet werden:

 

Hintergrund

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet respektive nicht möglich, da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die »reduzierte Masse mred = mA / (1 + mA/mB)« quantenfeld-phänomenologisch einzuführen[8]. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

Reduzierte Masse

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit:

Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper, hier des Protons mit einem Elektron (Wasserstoffatom) jedoch um nichts Fiktives. Um überhaupt phänomenologisch verstehen zu können, das sich die Einführung des Terms mred = mA / (1 + mA/mB) begründen lässt, existiert eine solche Anschauung ausschließlich im Rahmen der Elementarkörper-Wechselwirkungen, wie noch explizit gezeigt wird.

 

 

Dyson Gleichung - Greensche Funktionen - Bethe Salpeter Gleichung
Quantenmechanik und Albert Einstein

[8Im Hinblick auf einen Erkenntnisgewinn in diesem Zusammenhang wird ein rational orientierter Betrachter die gelebte Egozentrik der Quantenfeldtheoretiker je nach Emotionszustand vermutlich entweder mit Belustigung oder eher tief traurig zur Kenntnis nehmen.

Die »Bethe Salpeter Gleichung« beschreibt Bindungszustände eines quantenfeldtheoretischen Zwei-Körper-Systems (oder auch nicht, {hüstel}).

Der Euphemismus der »Bethe Salpeter Gleichung« ist (noch) als sehr moderat zu bewerten, wenn man sich zum Vergleich postulierte Hyperfeinkorrekturen zu den Energieniveaus anschaut, siehe exemplarisch Higher order corrections to spin-spin scalar interactions in HD+ and H2+ , 2020 veröffentlicht und Nuclear Structure to the Hyperfine Structure in Hydrogen , 1959 veröffentlicht.

In allen Fällen wird so getan, als ob eine Berechnungs-Grundlage existiert, die sich aus der QM und weiterführend aus der QED ableiten lässt. Doch diese Grundlage fehlt: Wie bereits erwähnt: Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Jedwede feine oder hyperfeine (weitere) mathematische Modellierung ist somit ohne (insbesondere realphysikalische) Basis. Hier wird auch exemplarisch deutlich, das der Rückzug respektive Umzug von einer phänomenologisch basierenden formal-analytischen Betrachtung zu einer abstrakten mathematischen Betrachtung mit Vor-Kenntnis der Versuchsergebniswerte extrem verführerisch ist. Es wird solange mathematisch modelliert, bis das gewünschte Ergebnis irgendwie errechnet wurde. Obwohl diese (selbstbe)trügerische Vorgehensweise offensichtlich ist, gibt es im Lager der Quantenfeldtheoretiker keine Einsicht. Was sollen sie auch anderes machen? Es gibt schlicht keine Alternativen. Das Problem als solches war früh bekannt...

Albert Einstein (1879 - 1955) schrieb u.a. zur Quantenmechanik...

...[7] "die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."...

[7A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

 

 

Des Weiteren liefert die EKT u.a. eine exakte Berechnung und Herleitung der Feinstrukturkonstanten α, eine phänomenologische Begründung der Gravitation mit resultierenden exakten Berechnungsmöglichkeiten, eine Phänomenologie der elektrischen Ladung und diverser Ladungswechselwirkungsmöglichkeiten, der Ladungsinvarianz als solche.

 

Die Feinstrukturkonstante α wird  Elementarkörper basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von elektrischer Energie und Gesamt-Energie:

Hier ist zu bemerken, dass quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.

 

f7 wurde "eingeführt", um suggestiv zu verdeutlichen, dass es sich bei der [Elementarkörper-]Ladung q0 ("nur") um eine skalierte Masse-Radius-Funktion handelt.

Banalerweise ist fauch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Größe, die aus der elektrischen Elementarladung e "entstammt".

 

In der Quantenelektrodynamik (QED) ist der Wert der Feinstrukturkonstanten eine (reine) Meßgröße und gibt die „Stärke“ der Kopplung des Austauschteilchens (Eichbosons) Photons mit einem geladenen Elementarteilchen (beispielsweise des Elektrons) an. Aus Sicht der QED gibt es keinen phänomenologischen Zugang.

Im Rahmen des Bohrschen Atommodells entspricht der Wert der Feinstrukturkonstanten dem Verhältnis der Bahngeschwindigkeit des Elektrons zur Lichtgeschwindigkeit und ergibt sich als formaler Zusammenhang phänomenologisch begründet.

Hier sieht man deutlich, dass Denkmodelle, wie das Bohrsche und später ergänzend das Bohr-Sommerfeldsche- Atommodell, präzise, formal darstellbare Wertevoraussagen machen, obwohl das „Bahn-Denkmodell“, welches in Anlehnung an das himmelsmechanische Sonne-Planet-Modell „arbeitet“, in der QM und QED als falsch gilt.

Im Rahmen der Elementarkörpertheorie ist das „Bahn-Denkmodell“ gleichfalls nicht existent. Anschaulich geometrisch handelt es sich Masse-Raum gekoppelt um eine Überlagerung (Superposition) zweier Elementarkörper, was u.a. konsistent zur »reduzierten Masse« führt. 

Wie auch immer, interessant ist in diesem Zusammenhang die Tatsache, dass die Arnold Sommerfeldsche Erweiterung des Bohrschen-Atommodells ohne Spinpostulat (!) korrekt die Feinstruktur des Wasserstoff-Atoms beschreibt. Sommerfeld führte relativistische, Keplersche Ellipsenbahnen für das im Bohr-Modell radialsymmetrisch kreisende Elektron ein, bezog sich auf Kugelkoordinaten und quantisierte diese unabhängig voneinander.

 

 

Die EKT zeigt die einzige Möglichkeit auf, die Beziehung E = mc2 - phänomenologisch begründet - exakt herzuleiten. Insgesamt wird ein fundamentaler Zusammenhang zwischen Mikro- und Makro-Kosmos Masse-Raum gekoppelt begründet.

 

Dies führt zu der sagenumwobenen, sagenhaften Vereinheitlichung, von der alle Grundlagenphysiker träum(t)en.   

 

 

 

Warum glauben so viele Menschen, dass die bestehenden theoretischen Modelle sehr gut sind?

Warum denken so viele Wissenschaftler, dass es keine besseren Alternativen gibt?

 

Jäger und Sammler AlexDirkFreyling     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

 

Psychologie der Masse(n)

Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

 

Mythos  »Theorieschaft« [Theorie schafft]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Tatsache ist ausnahmslos: Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle bei genauer Sicht Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und Substrukturthesen. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (esoterischen [BR]) Konzepten geboren.

Wie bereits erwähnt, im heutigen Standardmodell orientierten Denken werden theoretische Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. 

In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ festen Glaubens sind, Quantenfeldtheorien wären innovative theoretische Konzepte, die praktische Anwendungen generier(t)en.

 

 

[BR] Was denken Pioniere der Teilchenphysik über die „heutige“ Teilchenphysik respektive über das „heutige“ Standardmodell der Elementarteilchenphysik?

Wobei „heute“ hier etwas grob gefasst mit dem Beginn des 21.Jahrhunderts startet. Ein Statement des Physiknobelträgres des Jahres 1976 Burton Richter aus dem Jahre 2006 beinhaltet eine klare Antwort.  

Burton Richter: „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“

Quote: “To me, some of what passes for the most advanced theory in particle physics these days is not really science. When I found myself on a panel recently with three distinguished theorists, I could not resist the opportunity to discuss what I see as major problems in the philosophy behind theory, which seems to have gone off into a kind of metaphysical wonderland. Simply put, much of what currently passes as the most advanced theory looks to be more theological speculation, the development of models with no testable consequences…“

QuelleTheory in particle physics: Theological speculation versus practical knowledge  Physics Today October 2006

 

„»Der Urknall ist nur Marketing«

Ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“ Robert Betts Laughlin  (1950 geboren, 1998 Nobelpreisträger für Physik)      

SPIEGEL: Wundert es Sie, dass sich die Öffentlichkeit vor allem für die Fragen interessiert, die Sie quasireligiös nennen?

Laughlin: Nein, gar nicht. Deshalb gehört das Marketing ja auch dazu, wenn man bezahlt werden will. Wir werden noch sehr viel hören von diesem Warum-ist-das-Universum-so-wie-es-ist-Zeug.           Interviewauszüge-Quelle SPIEGEL 30.12.2007

 

Verbreitungsstrategie von Objekt- und Entstehungsmythen

Es beginnt grundsätzlich „ordentlich“, siehe exemplarisch das Youtube-Video Simulation of the neutron star coalescence GW170817 Die Beschreibung seitens des Max-Planck-Instituts für Gravitationsphysik (Albert-Einstein-Institut) beginnt mit …“The video shows a numerical simulation“…

Doch keiner der Verkünder, ob Wissenschaftler, Wissenschaftsjournalist, Nachrichtensprecher, …,     „meint“ letztendlich, dass es sich, sowohl theoretisch als auch physisch, um nichts weiter als Hypothesen handelt. Stark theoriebeladene Wünsche werden „im guten (doppeldeutig) materiellen Glauben“ materialisiert. Obwohl jeder sehen könnte, was er nie wirklich sehen wird… 

                   

Wahrnehmungsmöglichkeiten: In unserem Sonnensystem gibt es weder Neutronensterne, Gamma Ray Bursts (GRBs) noch Schwarze Löcher (respektive „Anomalien“, die als solche interpretiert werden können).

Eine Liste postuliert „erdnächster“ Schwarzer-Löcher-Kandidaten findet sich unter  https://en.wikipedia.org/wiki/List_of_nearest_black_holes mit einer „kürzesten“ Entfernung von 2800 Lichtjahren. Zum Vergleich: Der nächste Stern „aus unserer Sicht“ ist mit 4,24 Lichtjahren Proxima Centauri (https://de.wikipedia.org/wiki/Proxima_Centauri). Objekt- und Entfernungs-Angaben beziehen sich auf die „Sicht des ΛCDM-Modells“.

Das angesiedelte soziologische Wahrnehmungsproblem „besteht“ darin, dass hier, nach einfachem psychologischem Glaubens-Muster, diverse postulierte Theorieobjekte unterschiedlichster Art, teils seit Jahrzehnten - der mit rudimentärem Wissen ausgestatteten Bevölkerung - als 100% real existent sprichwörtlich "verkauft" werden. Diese fördermittelbringenden Theorieobjekte sollen dann ein „Kaskadenereignis“ bilden. Beispiel: Es wird vorausgesetzt, dass kurz bevor zwei hypothetische Neutronensterne verschmelzen, eine Gravitationswelle emittiert wird, der dann ein GammaRayBurst folgt. Die beispielsweise postulierte Verschmelzung zweier Neutronensterne aus „Sicht des Standardmodells der Kosmologie“ in einer Entfernung von 130 Millionen Lichtjahren samt GRB vor 130 Millionen Jahren ist jedoch eine reine Glaubens-Hypothese. Sie wird nicht dadurch wissenschaftlicher, dass „alle“ daran glauben [AB].

Es gab mal eine Zeit, da glaubten die meinungsbildenden „Wissensführer“ die Erde sei Mittelpunkt des Universums. Es gab mal eine Zeit, da glaubten die „Wissensführer“ an die Phlogistontheorie. Man kann diesen Menschen nicht nachsagen, dass sie dumm waren. Es gab aus damaliger Sicht vermeintlich gute Argumente, und im Falle der Geozentrik eine begleitende Mathematik, die diese Ansicht unterstützte.

 

 

[AB] Wer genehmigt Forschungsgelder für wissenschaftliche Glaubensfragen? Es sind fast ausnahmslos Politiker mit rudimentären Fachkenntnissen. Deren aktuelle Irrationalität lässt die vermeintliche Aufklärung als nie existent dastehen.

Zur Kenntnisnahme und Selbstanalyse

Das Bundesministerium für Arbeit und Soziales (BMAS) hatte 2019 unter Führung des nach wie vor amtierenden Hubertus Heil aus Aberglauben entschieden, dass es keine Neufassung des Sozialgesetzbuches mit der Nummer 13 geben werde, und stattdessen auf 12 gleich die Nummer 14 folgen solle. So war es dann auch: In Deutschland wurde gemäß Aberglauben nach dem Zwölften Sozialgesetzbuch am 12. Dezember 2019 das Vierzehnte Sozialgesetzbuch erlassen.

Auf der Seite des christlichen Medienmagazins “PRO” ist am 19. Januar 2019 dazu folgendes zur Begründung zu lesen: “Das neue geplante Sozialgesetzbuch (SGB), das das Soziale Entschädigungsrecht neu regelt, wird statt der Nummer 13 die Nummer 14 erhalten. Der Chronologie folgend, müsste es eigentlich SGB XIII heißen. Doch Bundesarbeits- und Sozialminister Hubertus Heil (SPD) will diese ‘Unglückszahl’ vermeiden. Gegenüber Bild erklärte er: ‘Ich bin kein abergläubischer Mensch und habe auch keine Angst vor Zahlen. Ich bin gläubiger Christ. Aber in diesem Fall geht es um ein Opferentschädigungsgesetz für Opfer von Gewalttaten.’ Einige Opferverbände hätten darauf hingewiesen, dass es Betroffene gebe, die bei dieser Zahl ein ungutes Gefühl hätten. ‘Ich finde, wir Politiker brechen uns nichts ab, wenn wir auf solche Empfindungen Rücksicht nehmen’, sagte Heil.”

Weder Belege noch Grundlagen

Und weiter schrieb “PRO” damals: “Für den Politiker ist das kein Aufreger. Auch bei der Bahn oder bei Fluglinien gebe es keine Plätze oder Reihen mit der Nummer 13. Zudem fahre man in Hotels oft von der 12. direkt in die 14. Etage. ‘Es ist eine Frage von Sensibilität. Bei den durchnummerierten Sozialgesetzbüchern verstehen ja ohnehin nur noch Experten, welches SGB für welche Themen steht…‘”. Zum weiteren Verständnis und zur Bewertung der Situation empfiehlt sich auch die nachfolgende (An-)Frage zur Vermeidung der Zahl 13 auf “FragdenStaat.de”: „Sehr geehrte Damen und Herren, laut Medienberichten soll die eigentlich anstehende Benennung SGB XIII übersprungen werden und mit SGB XIV fortgeführt werden. Als Begründung wird angeführt, dass die Zahl 13 (XIII) eine ‘Unglückszahl’ sei und es ‘mehrere Argumente, auch vonseiten der Betroffenenverbände’ gegeben hätte. Bitte senden Sie mir folgendes zu: – Ihre Belege, dass die Zahl ’13’ signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden kann… Die Argumente und Begründungen der Betroffenenverbände und anderer Beteiligten zu diesem Thema…. Pläne zur Bekämpfung der ‘Triskaidekaphobie’ in Ihrem Ministerium.“

Das Bundesministerium für Arbeit und Soziales antwortete, wenn auch erst nach wiederholter Erinnerung des Fragestellers, wie folgt: „Das BMAS verfügt weder über Belege und Grundlagen, dass die Zahl 13 signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden kann. Noch gab es oder gibt es Pläne des BMAS zur Bekämpfung der ‘Triskaidekaphobie’, der krankhaften Angst vor der Zahl 13, und folglich auch keine amtlichen Informationen über entsprechende Pläne. Eine Liste von Opferverbänden, die sich in Gesprächen gegen die Verwendung der Zahl ’13’ ausgesprochen haben, liegt ebenfalls nicht als amtlich vorhandene Information vor. Mit freundlichen Grüßen.“

“Triskaidekaphobie” als Phänomen

Stellen wir noch einmal beide Aussagen gegenüber. Der Minister Hubertus Heil sagt also: „Ich bin kein abergläubischer Mensch und habe auch keine Angst vor Zahlen. Ich bin gläubiger Christ. Aber in diesem Fall geht es um ein Opferentschädigungsgesetz für Opfer von Gewalttaten.“ Und auf den Hinweis einiger Opferverbände, die anmerkten, dass es Betroffene gebe, die bei dieser Zahl ein ungutes Gefühl hätten, entgegnet er: „Ich finde, wir Politiker brechen uns nichts ab, wenn wir auf solche Empfindungen Rücksicht nehmen… „Es ist eine Frage von Sensibilität.“

Sein eigenes Ministerium hingegen räumt ein, dass es weder über Belege noch Grundlagen verfüge, denen zufolge die Zahl 13 signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden könne, noch habe es Pläne des BMAS gegeben oder gäbe aktuell welche zur Bekämpfung der  krankhaften Angst vor der Zahl 13. Folglich lägen auch keine amtlichen Informationen über entsprechende Pläne vor. Nochmals wörtlich: “Eine Liste von Opferverbänden, die sich in Gesprächen gegen die Verwendung der Zahl ’13’ ausgesprochen haben, liegt ebenfalls nicht als amtlich vorhandene Information vor.” Auf Wikipedia finden sich zum Stichwort “Triskaidekaphobie” einige interessante (Praxis-)Beispiele für Alltagsauswirkungen dieses Volksaberglaubens.

Verheerendes Signal für Angstgestörte

Hubertus Heil respektive das Bundesministerium für Arbeit und Soziales besitzt nach eigenen Aussagen also keine Belege und Grundlagen, dass die Zahl 13 signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden kann, er kann auch nichts zu Anzahl und Bedeutung der “Opferverbände” sagen – aber er nimmt “Rücksicht auf Empfindungen“. Das bedeutet, dass Hubertus Heil semantisch-suggestiv, ohne jegliche Faktengrundlage, lediglich aufgrund eines “ungutes Gefühls” eine unlogische Entscheidung traf. Der Staat hat hier also – auf reinem Aberglauben basierend – Logik und Rationalität ausgeblendet – mit der „Begründung“, dass auch andere nicht staatliche, unter anderem privatwirtschaftliche Unternehmen so agier(t)en. Dies lässt aus psychologischer Sicht die Schlussfolgerung zu, dass die irrationale Angst vor der Zahl 13 von Hubertus Heil und dem Bundesministerium für Arbeit und Soziales bestätigt und gefördert wird – ein verheerendes Signal für die Angstgestörten.

 

Es ist sehr schwer zu verstehen, dass vieles, was und woran man ein Leben lang geglaubt hat, eine große Lüge war und ist. Umso länger und intensiver Falschinformationen und Inkonsistenzen sowie Widersprüche aus Unwissenheit akzeptiert werden desto weniger sind die Informations-Betrogenen bereit, eines Tages die Wahrheit zu ertragen. Recht zu haben ist nicht „schön“. Erst wird man angefeindet oder ausgelacht, man gilt als Sonderling, Verschwörer etc., wenn sich dann jedoch herausstellt, dass man richtig lag, will keiner mehr etwas mit einem zu tun haben. Die Masse fühlt sich durch den Rechthaber an ihre eigene Dummheit erinnert und das kann sie ihm nicht verzeihen. Zu sehr nagt das Eingestehen des Langzeit-Betruges an dem Ego. Statt nun "aufzustehen" und Widerstand zu leisten, wird massiv verdrängt und nicht selten werden die Aufklärer, trotz nun besseren Wissens, zu Feinden erklärt.

Die Erkenntnis, dass man einem ausgeklügelten Schwindel zum Opfer gefallen ist, ist schmerzhaft. Es ist peinlich. Die Leute schämen sich. Niemand sieht sich gerne als Trottel. Es ist demütigend. Es macht die Menschen wütend. Sie möchten dann jemanden plakativ formuliert und manchmal wirklich - auspeitschen.

Das Komische daran ist, dass es normalerweise nicht die Person ist, die sie betrogen hat, auf die sie einschlagen wollen. Dadurch würden sie sich nur noch mehr schämen. Nein, in der Regel – sobald sie erkennen, dass sie betrogen wurden – wollen sie dann diejenigen Menschen bestrafen, die auf den Schwindel nicht hereingefallen sind und die versucht haben, sie zu davor zu warnen, betrogen zu werden.

 

 

Menschen sind nicht "natürlich blöd"

Sie werden gesteuert und in ihren primitiven Mechanismen immer wieder aktiviert

Die meisten Menschen sind Zeit ihres Daseins auf einfachem Niveau unterwegs – Ego,  Nahrung, Fortpflanzung, Höhle, Feuer, in den jetzt üblichen Ausgestaltungsformen nicht selten McDonalds, Kleinfamilie oder getrennt lebend, alleinerziehend, Mietwohnung, Eigenheim und Elektroherd. Und als Erweiterung/Konsequenz dessen akzeptieren sie ein strikt hierarchisches Gefüge. Dazu etwas Primaten-Gruppendynamik (ich will, dass ihr mich liebt und akzeptiert) und jede Menge emotionale Gutmenschen-Trigger und Bespielung (blutende Kinder in Aleppo = Putin + Assad sind böse, im Mittelmeer gerettete männliche Muslime = immer gut. Schnäppchen-Hormone werden in Radio und Zeitung aktiviert = kauf dich glücklich, was koche ich und wohin im Urlaub, welcher Herz-Schmerz- sowie Gewalt-Film läuft im Kino oder auf Netflix? Oder die Sehnsucht nach Berühmten. Wo steht sein Denkmal? Wer trinkt sein Badewasser? So ist der Durchschnitt mehr als genug beansprucht und beschäftigt. Das kapitalistische, hedonistische Konsum-System das Mehrwert nicht aus Bedarf, sondern aus immer neuen Bedürfnis-Reizen generieren will und generiert, ist eine ökonomisch-politische Zauber- und Versklavungsmaschine jener, die oben in der Spitze der Eliten-Pyramide residieren und die Menschenformel lautet wie eh und je: »divide et impera«. Man hat nicht ohne Grund Milliarden und Abermilliarden, über die Zeit Billionen, investiert, um Menschen und ihre Verhaltensmechanismen zu entschlüsseln, letztendlich um sie militärisch, wirtschaftlich und politisch optimal steuern und benutzen zu können. Käfig-Freiheiten des Neo-Liberalismus, wo, in Wahrheit, an jedem Köder-Happen eine Sklavenkette angebracht ist.

Klischees und antrainierte Sichtweisen werden von dem Gros der „Schlicht-Informierten“ als eigene Wahrheiten adaptiert. Die Realität sieht nicht selten komplett anders aus…

Der Flippereffekt

Siehe die, u.a. mittels populärwissenschaftlicher Fernsehberichte und Serien wie „Flipper“, „Volksmeinungüber Delfine. Diese zu den Zahnwalen gehörenden Säugetiere gelten als besonders intelligent und „nett“. Tatsache ist jedoch, Delfine sind im Vergleich zu vielen anderen Tieren (wie beispielsweise Krähen) weder besonders intelligent noch sind Delfine „nett“. Delfinen fehlen Gesichtsmuskeln. Dadurch haben sie immer ein vermeintlich „lachendes Gesicht“ und sehen ständig gut gelaunt aus. Tatsache ist: Sexuelle Gewalt ist bei Delfinen an der Tagesordnung. Gruppen von Delfinmännchen verfolgen und bedrängen Delfinweibchen bis zur Erschöpfung, dann folgt die Massenvergewaltigung…

 

»Du sollst nicht töten«

Die Zehn Gebote stehen in der Bibel, im Alten Testament. 

Doch diese haben nicht die universelle Bedeutung, die insbesondere die Kirche ihnen propagandistisch unterstellt. Denn…

[D] Jesus beschränkte seine Gruppe der Erretteten streng auf die Juden, in dieser Hinsicht stand er in der alttestamentlichen Tradition, eine andere kannte er nachweislich nicht. „Du sollst nicht töten“, bezog sich ausschließlich auf Juden. Es hieß vielmehr ganz gezielt: Du sollst keine Juden töten. Die gleiche Ausschließlichkeit beinhalten alle Gebote, in denen von deinem «nächsten« oder »deinem Nachbar« die Rede ist. »Nachbar« bedeutet Mitjude.

[D] Der Gotteswahn von Richard Dawkins, Kapitel: Liebe deinen Nächsten, Seite 353

Exemplarisch: ..."Gleich nachdem er den Israeliten gesagt hatte, sie sollen nicht töten, befahl er ihnen, zu töten. Die Israeliten sollten in den Krieg gegen die Kanatiter ziehen um alle zu töten, auch die Frauen und Kinder und auch das Vieh."...

Im Kontext heißt „Du sollst nicht töten“ folglich nur: „Du sollst keine Mitglieder deiner eigenen Sippe töten“. So hat das Gott damals gemeint, so hat er es praktiziert, mit der Versklavung und Ermordung von Nicht-Israeliten hatte er über die gesamte Bibel hinweg nie Probleme gehabt.

Auch wenn beispielsweise heute Soldaten mit christlicher Begleitung respektive kirchlichen Segen in den Krieg ziehen um zu töten, gilt sie sollen nicht ihre “Glaubensbrüder” töten, den Feind schon.

Gustave Le Bon, sofern sich Leser noch nicht oder in einem moderaten Zustand des funktionalen Analphabetismus befinden, lässt mit seinem Meisterwerk “Psychologie der Massen” grüßen. Und der Psychologe Salomon Asch schrieb auf Grundlage seiner Versuche: “Für die meisten Menschen hat die Anpassung an das, was andere sagen und tun – egal wie objektiv falsch oder absurd es ist – Vorrang vor der Anpassung an die Realität und der Entdeckung der Wahrheit.“

 

Tradition der Jungfrauengeburt Entstehungsgeschichte der Bibel

 

 

 

Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten Denkmodell Zeit und Beachtung zu schenken?

Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für meßbare physikalische Größen.

a) Existieren keine Modell basierenden formalisierten Berechnungen die mit meßbaren Werten korrespondieren, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell.

b) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch eine konsistente, nachvollziehbare Erklärung innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten, bekannten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.

 

Voraussetzungen für die Gestaltung eines epistemologisch bedeutenden Denkmodells

Zum konstruktiven kritischen Denken und Handeln gehören Fähigkeiten und Fertigkeiten

 

…die Fähigkeit der Mustererkennung und beobachteten zahlenmäßigen Auffälligkeiten

…die Fähigkeit Argumente zu identifizieren

…die Fähigkeit die Qualität der Argumente prüfen zu können

…die Fertigkeit Alternativen identifizieren zu können

…die Fertigkeit Alternativen formulieren zu können.  

… die Fertigkeit (das Handwerk) zu formalisieren, sofern es formalisierbar ist. Physikalische Denkmodelle müssen ausnahmslos formalisierbar sein, denn nur im Rahmen der Formalisierung sind Denkmodell-Voraussagen möglich, die im Experiment verifiziert respektive falsifiziert werden können.

Ein naturphilosophisch wertvolles physikalisches Denkmodell ist phänomenologisch begründet, konsistent, sowohl mathematisch als auch plausibel verstehbar, minimalistisch, universell ("skalen-korrespondierend") und experimentell direkt überprüfbar.

In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

 

Weltliches - Cui bono?

Übergeordnet stellt sich die Frage, inwieweit Akademisierungen von Naturvorgängen die Natur beschreiben oder eher von Moral und Ideologie beeinflusst werden, um eine Massenmeinung zu etablieren bzw. zu festigen. U.a. mit dem Ziel über ein Fachgebiet hinaus - interdisziplinär vermeintlich verstehbar – Lehraufträge und Forschungsgelder zu begründen und von der Allgemeinheit finanzieren zu lassen. Hier sind Spielräume für metaphysische Betrachtungen, sprachliche Übertreibungen und instrumentalisierte Ungewissheiten deutlich besser geeignet, Massen zu mobilisieren als "schnöde" Denkmodellstringenz. Nicht umsonst heißen die nicht detektierbaren Objekte und deren nicht detektierbare Wechselwirkungen der etablierten Standardmodelle suggestiv Dunkle Materie, Dunkle Energie, Dunkle Photonen. Mystifizierung und wissenschaftlich inszenierte Unwissenheit gehen hier Hand in Hand mit religiösen westlichen Glaubensbekenntnissen. Solche Denkmodelle besitzen eine deutlich größere Strahlkraft für den "gemeinen" populärwissenschaftlich Interessierten als formal-analytisch, determinierte Beschreibungsmodelle. 

 

Kirche, Staat und Physik

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ [Quelle: Als der Urknall Mode war    Erinnerungen an ein kurioses Weltmodell  Klaus Gebler  2005  ISBN 3-8334-3983-1]

Kurt Marti zeigt fragmentarisch auf, wie der Vatikan und CERN-Forscher sich Hand in Hand die Glaubens-Zukunft der Teilchenphysik und Kosmologie vorstellen.

…“Dem Vatikan geht es nicht primär um Elementarteilchen und Schwarze Löcher, sondern um Metaphysik. Mit ihrem exzellenten Spürsinn für das scheinbar Wesentliche haben die Theologen in Rom längst begriffen, dass die Teilchen- und Astrophysik immer mehr in der dünnen Luft der experimentfreien Metaphysik operiert.“… Quelle: Wahlverwandtschaften von CERN und Vatikan von Kurt Marti

 

Euphemistische Botschaft der Deutschen Physikalischen Gesellschaft (DPG):

...„Die Deutsche Physikalische Gesellschaft soll ausschließlich und unmittelbar der reinen und angewandten Physik dienen. ...“

»Wahre Botschaft« der Deutschen Physikalischen Gesellschaft (2000):

"Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte." [Quelle: Eine an alle höheren Schulen ausgelieferte umfangreiche Denkschrift „PHYSIK – Themen, Bedeutung und Perspektiven physikalischer Forschung, ein Bericht an Gesellschaft, Politik und Industrie“ im Jahre 2000 enthielt diesen denkwürdigen Satz: „Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte.]

 

res mixta

Dass es keine Trennung von (christlicher) Religion und Staat in Deutschland gibt, vermittelt unmißverständlich bereits das Deutsche Grundgesetz:

Präambel des Deutschen Grundgesetztes [Bundesministerium der Justiz]

 „Im Bewusstsein seiner Verantwortung vor Gott und den Menschen, von dem Willen beseelt, als gleichberechtigtes Glied in einem vereinten Europa dem Frieden der Welt zu dienen, hat sich das Deutsche Volk kraft seiner verfassungsgebenden Gewalt dieses Grundgesetz gegeben. Die Deutschen in den Ländern Baden-Württemberg, Bayern, Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Saarland, Sachsen, Sachsen-Anhalt, Schleswig-Holstein und Thüringen haben in freier Selbstbestimmung die Einheit und Freiheit Deutschlands vollendet. Damit gilt dieses Grundgesetz für das gesamte Deutsche Volk.“

Aussage-logisch bedeutet das für Deutsche, die nicht an Irrationalitäten wie Gott glauben, dass diese Staatsbürger das Grundgesetz nicht mitgestaltet haben, was sich schon dadurch aufzeigen lässt, dass in der Präambel „Im Bewusstsein seiner Verantwortung vor Gott" mit Sicherheit nicht stehen würde, und es bedeutet konsequent auch, das die Gottes-Ungläubigen vom Grundgesetz ausgeschlossen werden bzw. ihren Nichtglauben aufgeben müssen, um in den „Genuß“ des Grundgesetzes zu kommen.  

 

Historische Wurzeln staatlicher Geldbeschaffung für die Kirche

1935 wurde erstmals unter der nationalsozialistischen Regierung die Konfession auf der Lohnsteuerkarte vermerkt. Kirchensteuern wurden fortan vom Arbeitgeber in „staatlichem Auftrag“ eingezogen.

Obwohl sich Deutschland als säkularer Staat versteht, besitzt die Kirche hierzulande - nach wie vor - umfangreiche Privilegien, die nicht mit dem Grundsatz der Trennung von Kirche und Staat vereinbar sind und an vielen Stellen auch mit einem gewaltigen Konfliktpotential mit den Inhalten des Grundgesetzes einhergehen. Wie z.B. beim gesonderten kirchlichen Arbeitsrecht, welches für kirchliche Einrichtungen gilt. Darüber hinaus werden kirchliche Einrichtungen wie Krankenhäuser, Kindergärten und Schulen trotz des hohen Vermögens der Kirchen mitunter bis zu 90 % vom Staat, d.h. von uns allen finanziert und eben nicht von der Kirche. Weitere Details siehe exemplarisch Demokratie in Bewegung

Rund 600 Millionen Euro zahlen die Bundesländer jedes Jahr an die Kirchen. Selbst Wikipedia identifiziert die Allianz zwischen Staat und Kirche, auch wenn die Überschrift etwas anderes suggeriert.

 

Frühe Glaubeindoktrination

Nach wie vor werden die meisten Gläubigen in ihre Religion hineingeboren und gemäß den vorherrschenden Randbedingungen glaubenskonditioniert. [Auch ich musste als Kind, so wie meine Schwester, vor dem Schlafen gehen, mit meiner Mutter beten.] Irgendwann denken sie, es wäre ihr persönlicher freier Glaubenswille statt frühkindlicher Glaubensindoktrination. Die Psyche von Kindern ist darauf eingestellt ihren Eltern zu glauben. Dabei handelt es sich um einen Überlebensmechanismus. Sie müssen ihren Eltern zum Beispiel glauben, dass sie bestimmte Dinge essen dürfen und andere nicht, damit sie sich nicht vergiften. Es handelt sich um einen Mechanismus, der zur vagen Orientierung dienen soll. Als solcher ist er leicht anfällig für jegliche ideologische Propaganda. Die Kinder glauben die Inhalte der Religion ihrer Eltern, auch wenn diese aus evolutionärer Sicht keinen Sinn ergeben. Um diesen Gedankengang weiter zu verfolgen: Kinder emanzipieren sich in der Pubertät von ihren Eltern bis zu einem gewissen Grad und entwickeln eigene Gedanken. Bei Religionen scheint das nur selten zu funktionieren, schließlich handelt es sich um komplette Weltanschauungen, noch dazu mit dogmatisch vertretenen Inhalten, die aufrecht erhalten werden von der näheren Umgebung der indoktrinierten Kinder. Wenn alle oder fast alle Freunde und Verwandten des Kindes an dieser Religion festhalten, wird das Kind eine minder große Neigung dazu haben, den Glauben in Frage zu stellen.

 

Wie hätte sich Wissenschaft und Forschung entwickelt, wenn es keine Bibel gegeben hätte?

Die Frage ist überaus brisant, denn von Anfang an wurde jedes Hinterfragen der Welt von den Bibelverkündern im Keim erstickt, wenn es nicht dem Wohl des Glaubens diente. Als die Kirche zu ihrem Siegeszug antrat, erwachten im Einfluss der hellenistischen und römischen Kulturen erste Ansätze von Wissenschaft. Man wusste damals in gelehrten Kreisen bereits von der Kugelgestalt der Erde. Eratosthenes (276-195 v. Chr.) errechnete den Umfang der Erde weitaus genauer als lange nach ihm Christoph Kolumbus. Aber die christlichen Offenbarer beharrten darauf, alles Wissen allein und wahrhaftig zu besitzen. Erkenntnis außerhalb der Bibel war überflüssig, geradezu undenkbar. Was hätte sich alles entwickeln können, hätte man dem Forscherdrang von Anfang an freien Lauf gelassen?

Die Heilkunst war vor der Zeitrechnung hauptsächlich in Ägypten und Griechenland recht fortgeschritten. Erziehung und Bildung hatten einen hohen Stand erreicht. Mehr als 40 Tempel waren allein Asklepios gewidmet, dessen Heilstätten gut besucht waren. Die Medizin war erwacht und schien voranzuschreiten, aber das Christentum fürchtete die Konkurrenz des Wissens und verketzerte und bekämpfte sie. "Die Kranken sollen lieber zum Gebet als zum Arzt gehen", war die überlieferte Ansicht der Geistlichkeit. Die Hauptursache aller Krankheiten und körperlicher Gebrechen wurde im Ungehorsam gegen Gott gefunden. Warnte nicht der Herr seine Menschen unmissverständlich, sollten sie ihm (3. Mose 26,14) "nicht gehorchen“, würde er sie mit Krankheit strafen? (3. Mose 26,16) "Ich will euch heimsuchen mit Schrecken, mit Auszehrung und Fieber." Das Sezieren von Leichen und der Gebrauch natürlicher Heilmittel galten als Teufelswerk. Im Jahr 1543 fertigte der Mediziner Andreas Vesalius eine durch systematisches Sezieren erstellte anatomische Studie an, die er von seinem Freund Stephan von Kalkar naturgetreu hatte illustrieren lassen. Die Bilder zeigten den menschlichen Körper, seine Nerven, seine Muskeln und Knochen mit erstaunlicher Präzision. Was die Theologen daran besonders entrüstete, war die Erkenntnis, dass Mann und Frau die gleiche Anzahl Rippen besitzen. Hatte Gott nicht Adam eine Rippe genommen, um Eva zu erschaffen? Also müssten Männer doch eine Rippe weniger haben. Entrüstung überall. Die Liste der von Theologen verfolgten und verhöhnten Forscher ist lang. Charles Darwin, selber ein ehemaliger Theologe, wurde noch im 19. Jahrhundert aufs Widerwärtigste beschimpft und bedroht. Bis heute erscheinen religiöse Schriften, die seine Evolutionstheorie vehement bestreiten. Wissenschaft und Experiment wurden bis zur Renaissance durch Bibel und Dogma rücksichtslos geahndet. Erst die Französische Revolution eröffnete den langen Prozess der Aufklärung und nahm der Kirche ganz langsam ihre Macht über das Denken.

 

 

Sein oder Nichtsein

Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen.

 

Natur lässt sich nicht formalisieren.

Was sich formalisieren läßt, sind Denkmodelle zur Beschreibung der Natur.

"Objektivität ist die Wahnvorstellung, Beobachtungen könnten ohne Beobachter gemacht werden."

Heinz von Foerster ( 1911 – 2002)

Ein Beispiel zum Verständnis

Der Mond ist ein inhomogenes, makroskopisches Vielteilchenobjekt. Ohne seine Struktur zu kennen, lässt er sich aus der Ferne  - ohne Verwendung komplizierterer Denkmodelle – bereits im Rahmen der „Geometrischen Optik“ erkennen und als Objekt im „Lichtweg“ beschreiben. Bedeutet: Bezogen auf ein gewöhnliches Teleskop „sehen“ Beobachter diesen, wenn „Licht“ auf ihn „fällt“, welches in Richtung des Teleskops reflektiert wird. ABER: Kein „Licht“ bedeutet KEIN Mond bei Verwendung eines „Licht“-Teleskops.

Was „da“ ist und was nicht, ist grundsätzlich eine Frage der Wahrnehmungsmöglichkeiten. Auch wenn wir den Mond nicht sehen, so wirkt dieser kontinuierlich gravitativ. Haben wir auch keine Möglichkeit Gravitation zu messen und wird der Mond nicht „bestrahlt“ ist er gemäß unserer Messmöglichkeiten auch nicht „da“.

Allgemeine Aussagen zur Wahrheit der Wahrnehmungen

Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll.

Mit den historischen Worten Werner Heisenbergs (1931): „Zu jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das zu messende System nötig, der das System unter Umständen empfindlich stört. Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“ Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein praktisch durchführbares Experiment kann nur die Energie in einem Bereich mit verwaschenen Grenzen liefern.

Zum Verständnis Werner Heisenbergs Aussage folgend ein makroskopisches Gedankenexperiment

Stellen wir uns vor, wir verwenden zur Untersuchung des Mondes einen weiteren (möglicherweise beschleunigten) Mond und lassen nicht „etwas“ Licht sondern den Untersuchungsmond auf den zu untersuchenden Mond prallen (Kollision). U.a. in Anhängigkeit der Größe und Masse, des Aufprallwinkels und der Geschwindigkeit des Testmondes (bedeutet zusätzliche kinetische Energie) wird das zu untersuchende Objekt nun während und nach der Wechselwirkung mit dem Testobjekt verformt, gespalten, …, (teils) zertrümmert und mit der Zeit werden die Trümmerteile gravitativ neue Strukturen bilden (können) oder „davon fliegen“… Im Ergebnis werden nicht die charakteristischen Eigenschaften des zu untersuchenden Objektes „gemessen“, sondern wir haben mit unserem Untersuchungsobjekt eine neue (Versuchs-)Wirklichkeit geschaffen, aus der wir nahezu keinerlei Aussage über das eigentliche Testobjekt erhalten können. Absurderweise geschieht genau das in einem Teilchenbeschleuniger. Die mit extremer Zusatzenergie „beladenen“ Kollisionspartner können rational logisch betrachtet während der Kollisionswechselwirkung und danach nicht herangezogen werden, um Strukturinformationen über ruhende Teilchen (Protonen, Elektronen, Bleikerne) zu erlangen. Konträr dazu behaupten die Macher des Standardmodells der Elementarteilchenphysik, dass das möglich sei. Bei genauer Betrachtung basiert das gesamte theoretische Gebäude ursächlich und experimentell über Jahrzehnte wiederholt auf dieser fatalen Annahme. Später in den Ausführungen werden detaillierte (fachspezifische) Betrachtungen zu dieser, aus Erkenntnissicht, katastrophalen Denkmodellannahmen von Brigitte Falkenburg zitiert, erörtert und sachlich kritisiert.  

 

                                             

Grundsatzfrage

Gibt es noch etwas "Konträres" in der Theoretischen Grundlagenphysik zu entdecken? Hat der herrschende Indeterminismus der »Modernen Theoretischen Physik« das "letzte Wort"?

Der Glaube an das Standardmodell der Teilchenphysik (SM) ist heute so selbstverständlich, wie "damals" der Glaube an die Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien (QFTn) vorstellen, dass diese (noch) irgendwie fundamental "falsch" sein könnten respektive durch fundamental andersartige Theoriekonzepte im Sinne des Prinzips der Parsimonie ersetzt werden können. Gleiches dogmatisches Denken gilt für das Standardmodell der Kosmologie (ΛCDM-Modell).

Und doch...

Im Folgenden wird gezeigt, dass das, aus Standardmodellsicht, vollkommen Unerwartete, scheinbar Unmögliche bereits seit Jahren als "Denkmodell-Realität" existiert und im Sinne des Prinzips der Parsimonie den Standardmodellen bezüglich aller signifikanten Parsimonie-Aspekte überlegen ist...

Die Elementarkörpertheorie (EKT) befasst sich insbesondere mit der Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich näherungsfrei, sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen.

 

statt  4 Grundkräften     →    Masse - Raum - Kopplung

 

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen wortwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

Die »Freien Parameter« des Masse-Radius-gekoppelten Raumes

Einzig folgende Meßwerte werden für die EKT benötigt,

Masse des Elektrons, Masse des Protons, Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, der Wert der Dieelektrizitätskonstanten.

Das wären 7 freie Parameter, die von der Natur vorgegeben und relativ einfach meßbar sind.

Da wir hier die Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, den Wert der Dieelektrizitätskonstanten zu den freien Parametern der EKT zählten, müssen wir diese gemäß der verwendeten Standardmodell-Terminologie jedoch wieder abziehen, da diese nicht als freie Parameter aus Sicht der Standardmodelle gelten.

Bedeutet:

Die EKT benötigt nur (!!!) 2 freie Parameter!

Die Masse des Elektrons und die Masse des Protons

 

"Andererseits"...

Zum Vergleich: Das Standardmodell der Teilchenphysik benötigt derzeit 25 freie Parameter, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]4, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…

]4 Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann.
Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung verletzt, zweitens stimmt die Aussage, dass der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „Higgs korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen.

Ein guter Überblick über die Standardmodelle findet sich „unter“ Review of Particle Physics 2017 der Particle Data Group (PDG) und The Review of Particle Physics 2023. Dort sind neben experimentellen Methoden und Theoriebeschreibungen der derzeitigen Teilchenphysik, grundlegende Informationen zu Quarks, Neutrinos, Formfaktoren, … sowie Informationen zu „noch“ hypothetischeren Teilchen, wie beispielsweise Leptoquarks oder Axionen. Astrophysikalische „Konzepte“, kosmologische Parameter, experimentelle Tests von Gravitationstheorien etc. zusammengestellt. Des Weiteren werden (apparative) Aspekte der Beschleuniger-Physik, Monte-Carlo-Simulationen  und vieles mehr vorgestellt.

Die Particle Data Group (PDG) ist eine internationale Kollaboration, die eine ausführliche Zusammenfassung der Teilchenphysik und verwandter Bereiche der Kosmologie bietet. Sie wird von einem Koordinationsteam geleitet, das sich hauptsächlich am Lawrence Berkeley National Laboratory (LBNL) befindet, das seit Gründung der PDG als Hauptsitz dient.

Eine mehr oder weniger allgemeinverständlichere Beschreibung findet sich auf CERN-online. Die Hauptaufgabe des CERN (Conseil européen pour la Recherche nucléaire, The European Organization for Nuclear Research) ist die Bereitstellung von Teilchenbeschleunigern und anderer Infrastruktur, die für die Forschung im Bereich der Hochenergiephysik benötigt wird. Am 24. Februar 1954 erfolgte die 1. Konferenz des CERN-Rates nach der Gründung in Genf. Am 29. September 1954 ratifizierten sieben der zwölf Mitgliedstaaten den Staatsvertrag zur Gründung. Am 10. Juni 1955 erfolgte die Grundsteinlegung des CERN-Laboratoriums durch Felix Bloch, den ersten regulären Generaldirektor des CERN.

 

Grundlagen der Quantenchromodynamik (QCD) siehe hier .

 

Lagrange-Dichte

Um einen ungefähren Eindruck von der Komplexität des SM zu bekommen, wird hier folgend "kurz" die Lagrange-Dichte "vorgestellt".

Neben dieser konkreten »Formulierung« gibt es noch weitere "Abbildungs-Varianten"...

 

Elementarkörpertheorie

Die Elementarkörpertheorie (EKT) liefert neben konkreten Voraussagen insbesondere plausible, sinnerfahrbare Phänomenologie. Mathematik ist zwar "Denkmodell-inhärent", aber im Rahmen der EKT nur "Mittel zum Zweck". Die Elementarkörpertheorie baut auf Plausibilität und Minimalismus auf und ist nachvollziehbar weder an Wahrscheinlichkeiten noch methodischer Materiezersplitterung interessiert. Inhaltliche Konflikte mit bestehenden Theorien und Modellen, insbesondere mit dem Standardmodell der Elementar-Teilchenphysik (SM), der ursächlichen Quantenmechanik (QM) und dem Standardmodell der Kosmologie (ΛCDM-Modell) sind unausweichlich.

Konkrete Wertberechnungen des alternativen Denkmodells der Elementarkörpertheorie sollen das stichprobenartig ("früh" im Text) eindrucksvoll verdeutlichen, ohne hier bereits auf die dem Denkmodell zu Grunde liegende konsistente Phänomenologie ausführlich einzugehen.

 

 

Verkörperung des euklidischen Abstandes

Die Selbstverständlichkeit, dass die Wegstrecke auf einer Kugeloberfläche nicht der euklidischen Entfernung zwischen den Punkten A und B entspricht bedarf keiner Abstraktion. Die kürzeste Entfernung zweier Punkte auf einer Kugeloberfläche ist die so genannte Orthodrome (griechisch: orthos für gerade und dromos für Lauf).

Die Tatsache, dass wir makroskopisch in sehr guter Näherung  - in Korrespondenz zum Masse-Raum-gekoppelten Mikrokosmos gemäß Elementarkörper-Modell – auf einer Kugeloberfläche leben, bedarf wenig Fantasie.

Der folgend erste kurze Denk-Ausflug in die Plausibilität des Elementarkörperprinzips ist möglicherweise für Leser mit wenig mathematischen Modell-Verständnis formal etwas verfrüht und doch bietet sich dieser hier an...

Elementarkörper(-Theorie EKT)

Zentrales Element des Denkmodells ist eine (zeitabhängige, Masse-Radius-gekoppelte) Hohlkugel (Elementarkörper). 

Die Idee, dass elementare Strukturen initial aus oszillierenden Kugeloberflächen bestehen, führt nicht zu einem vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von Raum und Zeit (Stichwort (postulierte) Raumzeit). Im Rahmen der Elementarkörpertheorie kommt es ganz im Gegenteil zu einer konstruktivenBeschreibungsverarmung“.

 

Der Ausdruck »konstruktive Beschreibungsverarmung« hat das Potential ein allgemein bekannter Begriff mit Alleinstellungsmerkmalen zu sein respektive zu werden. Das ist im Rahmen des angestrebten Paradigmenwechsels prima.

 

Die Isotropie (Kugelsymmetrie) führt zu einer 2-dimensionalen Plausibilität, die sich formal auf Zeit und Radius „verarmt“, da im Elementarkörper-Denkmodell die Elementarkörper-Masse inhärent (reziprok) mit dem Radius verknüpft ist, ohne das an dieser Stelle bereits im Detail explizit auszuführen:

 

                  Elementarkörper                   Entwicklungsgleichungen r(t), m(t)

                                                                    Masse-Radius-Konstantengleichung
                                   [diese fundamentale Entitäts-Gleichung wird später plausibel und exakt hergeleitet]

Ein Verständigungs- und Interpretations-Problem besteht darin, dass stillschweigend vorausgesetzt wird, dass es (im Mikrokosmos) die klassische Möglichkeit eines euklidischen Abstandes gibt und dass dieser euklidische Denk-Ansatz im Rahmen der Allgemeinen Relativitätstheorie (ART) durch einen „gekrümmten dreidimensionalen Raum mit (erweiterter) Zeitfunktion“ eine abstrakte differentialgeometrische Erfüllung findet. Aber beispielsweise weder der »quantenmechanische Spin«, basierend auf einer postulierten Wahrscheinlichkeitswelle oder wahlweise postulierten Punktmasse (des Elektrons), noch die postulierte Krümmung des Raumes beinhalten physikalische Plausibilität, geschweige denn sinnerfahrbare Realität.

 

Eine weitere Parsimonie-Prinzip-Schock-Möglichkeit

Wie gezeigt wird, ergeben sich u.a. alle relevanten Charakteristika der Relativitätstheorie aus einer/dieser "klassischen" Elementarkörperbetrachtung.

Das Verständigungs- und Interpretations-Problem begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik  aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, dass gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT schlicht nichts über die Invarianz der Lichtgeschwindigkeit.

Bevor hier Mißverständnisse aufkommen, es wird nicht behauptet, dass die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT. Die Inertialsystem behaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, dass "Kräfte" wirkten oder weniger mystisch ausgedrückt, daß Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformationen. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Physik bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme und Koordinatentransformationen "sind" keine physikalischen Vorgänge, sondern Mathematik. Es wird nicht geklärt, wie die Energiedifferenz und die „Struktur der Energiespeicherung“ über Koordinatentransformationen erzeugt wird oder „verschwindet“. Gemäß Relativitätstheorie gilt: Der Energieinhalt eines Teilchens ist abhängig von der Geschwindigkeit dieses Teilchens und resultiert aus einer Beobachtung, all das relativ aus Sicht eines Inertialsystem behafteten Beobachters.

Wenn sich die Geschwindigkeit ändert, dann ändert sich auch der Energieinhalt. Dies bedeutet: Durch den veränderten Energieinhalt muß sich zwangsläufig auch die innere Struktur der Teilchen ändern, denn die Energie wird „irgendwie“ und „irgendwo“ gespeichert und ist abrufbar. Phänomene wie die Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit können mit der Relativitätstheorie nicht erklärt werden. Die Relativitätstheorie liefert keine physikalische Rechtfertigung, die erklärt, warum und wie Masse größer oder kleiner wird.

Für Relativitätstheorie-Eingeweihte kommt jetzt möglicherweise der erste nachhaltige »Parsimonie-Prinzip-Schock«, sofern man an Bekanntem festhalten möchte aber - ergebnisoffen und an Rationalität orientiert - bereits "SRT-fern" realisieren kann, was hier geschieht.

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

Der dynamische Faktor γdyn ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" aus der Elementarkörpergleichung r(t) mittels dr/dt ableiten :

Aus Sicht der realphysikorientierten Elementarkörpertheorie bleibt - wenn man so will - von der Speziellen Relativitätstheorie (nur) der Lorentzfaktor γSRT als eindimensionaler, statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn "übrig":

 

γSRT = 

inertialsystembehaftet, statisch und eindimensional

γdyn = 

inertialsystembefreit, radialsymmetrisch, dynamisch

 

 

»eΥch«

(Eich-)Basisgrößen der Elementarkörpertheorie

Das Denkmodell der Elementarkörper arbeitet mit folgenden, experimentell ermittelten  Beobachtungs-Größen: Invarianz der (Vakuum-)Lichtgeschwindigkeit c, der Gravitationskonstanten γ und der elektrischen Elementarladung e. Als (Mengen-)Postulat wird das Planksche Wirkungsquantum h als kleinste (skalare) Wirkung definiert, welche sich phänomenologisch und "rechnerisch" zwanglos aus der Elementarkörperdynamik ergibt : ΔE · Δt = (m0c²) · ( r0π/2c) = h.

Details siehe das Kapitel Plancksches Wirkungsquantum. Auch der Term m0c² lässt sich direkt aus der Elementarkörperdynamik ableiten, Details siehe das Kapitel Herleitung der Masse-Energie-Äquivalenz.

Zeitstabiles Elektron und zeitstabiles Proton respektive Elektronen- und Protonenmasse sind zwar gestalterisch von realteilchenursächlicher Bedeutung und führen in der makroskopischen Betrachtung (mittels Grundzustandsenergie des Wasserstoffatoms und der Gravitationskonstante) u.a. zur Endgröße (Gesamtmasse und Gesamtradius) des Universums, aber die (allgemeine) Elementarkörper-Phänomenologie als solche, ist nicht von diesen konkreten Massen abhängig.

 

 

Übergeordnete system-methodische Problematik(en)

Neues Einheitensystem oder nur dogmatischer Standardabweichungsklau?

Zur Erinnerung zum Verständnis der Standardabweichungsnotation

exemplarisch am CODATA-Wert  des Planck'schen Wirkungsquantums von 1986

h(experiementell) = 6.6260755(40)e-34 Js bedeutet:

Seit dem 20. Mai 2019 gilt das neue Einheitensystem. In diesem sind einstige Meßgrößen nun ohne Meß-Fehler-Grenzen (erst einmal) für immer mit einem konkreten Referenzwert dogmatisch festgelegt.

Vergleich

Planck'sches Wirkungsquantum h

CODATA 1986 6,6260755(40)e-34 Js  
CODATA  2014 6,626070040(81)e-34 Js  
2019 Dogma 6,62607015e-34 Js  

Dieses Vorgehen ist aus analytischer, experimenteller Sicht offensichtlich unzulässig.

 

Übrigens, die phänomenologische Bedeutung des Planck‘schen Wirkungsquantums ist nicht wirklich geklärt. Tatsache ist, dass die Unteilbarkeit des Wirkungsquantums seit über hundert Jahren bis zum heutigen Tage noch nie begründet wurde. Max Planck hat sie nicht begründet, weil er das Wirkungsquantum für eine elementare mathematische Größe hielt, deren "Notwendigkeit" aus der Theorie folgte. Albert Einstein hielt eine Begründung nicht für notwendig, weil er an Plancks "Deduktion" glaubte. Er verschob die Bedeutung des Wirkungsquantums, indem er die mathematische Größe als eine physikalische Größe interpretierte.

 

Des Weiteren exemplarisch...

Die elektrische Elementarladung e hatte 2014 noch einen Meßfehler behafteten Wert von 1,6021766208(98)e-19 As, nun ist dieser exakt festgelegt auf 1,602176634e-19 As.

Sowohl die Dieelektrizitätskonstante ε0 als auch die magnetische Feldkonstante µ0 waren exakt, mit folgendem formalen Zusammenhang, definiert, zur gleichfalls per Definition exakten (Vakuum-)Lichtgeschwindigkeit festgelegt: 

[vacuum]

Die magnetische Feldkonstante µ0 hat nun eine Unsicherheit : 1.25663706212(19)e-6 Vs/Am und die Dieelektrizitätskonstante ε0  eine Unsicherheit von 8.8541878128(13)e-12 As/Vm.

Das ist in Anbetracht der Gleichung [vacuum] offensichtlich nicht möglich, respektive die Gleichung [vacuum] ist in diesem Bild (sozusagen Phänomenologie befreit) keine Gleichung mehr sprich nicht existent. Das hat erhebliche Konsequenzen, sofern man Axiome, Postulate, Experimente etc. im Rahmen einer exakten Wissenschaft betreiben möchte.

Es geht übergeordnet nicht nur um Meß(un)genauigkeiten und deren beliebigen Umgang, sondern allgemein um die generell fehlende Phänomenologie respektive u.a. um willkürliche Entitätspostulate der Standardmodellphysik

mp/me-Verhältnis

[Anatomie einer selbstdefinierten (SM-)Schizophrenie

 

Von den Protagonisten des Standardmodells der Teilchenphysik sowie deren Epigonen, Apologeten und Fans wird - nach wie vor - eine Frage thematisiert, die in diesem Denkmodell rational analytisch jedoch gar nicht existent sein kann.

Die Frage lautet: Warum ist das Masseverhältnis von Proton zu Elektron so, wie es ist?

Diese Frage ist im Rahmen des Standardmodells der Elementarteilchenphysik sinnleer. Das Elektron wird im SM als elementar(-strukturlos) postuliert. Gemäß SM besteht das Proton neben drei Valenzquarks aus einem Meer von vielen weiteren Quarks und Antiquarks sowie Gluonen. Ich werde diese Postulations-Aspekte noch zu Genüge im weiteren Verlauf detailliert thematisieren. Erst einmal beschränke ich mich an dieser Stelle auf ein leicht verständliches Fazit:

Elektronmasse und Protonenmasse lassen sich als Entitäten nur ins Verhältnis setzen, wen diese phänomenologisch betrachtet strukturgleich bzw. allgemeiner formuliert »wesensgleich« sind. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt (hier Proton) ist - gleichgültig wie die Substrukturierung zustande kommt - gegenstandslos. Das ist eine rational-analytische verallgemeinerungsfähige (Entitäts-)Feststellung.

 

 

Sekundäre Größen

Losgelöst und übergeordnet von Denkmodellen existiert keine Masse, die nicht auch eine Energie besitzt. Doch sowohl Masse- als auch Energie-Begriff sind sekundärer Art. Das heißt, "man" benutzt sie häufig, aber keiner kann im Rahmen der herrschenden Physik eine (konsistente) phänomenologische Erklärung liefern, was Masse und Energie eigentlich sind. Es existieren keine primären Begrifflichkeiten.

Die Verwendung von sekundären Begriffen in der Physik ist nicht nur weit verbreitet, im Rahmen der etablierten (theoretischen) Grundlagenforschung gibt es auf diesem Gebiet ausschließlich sekundäre Begriffe.

Verkünder und Versteher sekundärer Begriffe glauben an die suggestive Strahlkraft. Sie haben "irgendwie" ein gutes Gefühl der wissenschaftlichen Nähe, wenn sie beispielsweise von elektrischer Ladung, Photonen, Masse, elektrischem Feld oder Gravitationsfeld hören, über diese sprechen und diese Begrifflichkeiten respektive Größen in Formalismen einfügen. Doch alle Denkmodelle welche auf sekundäre Begriffe fußen sind nicht erkenntnis-tragfähig.

Ohne Übertreibung kann behauptet werden, dass (nur) die Elementarkörpertheorie sekundäre Begriffe zur Materiebildung auf die primäre Größe sprich den (Objekt-)Radius der wechselwirkenden Körper konstruktiv beschreibungsverarmend "reduziert", wie immer wieder folgend gezeigt wird. Radialsymmetrie, ausgedrückt durch den Radius (r), steht hier für die sinnlich erfahrbare und physikalisch messbare Objekt- respektive Raum-Größe. Räumliche Ausdehnung ist primär erfahr- und messbar. Mit dieser Annahme lassen sich sowohl charakteristische Größen zweikörperbasierender mikroskopischer "Entitäten", wie das Wasserstoffatom oder das Neutron phänomenologisch konsistent erfassen und berechnen, als auch charakteristische Größen makroskopischer Vielteilchensysteme.

 

Was ist Masse?

Ohne das an dieser Stelle näher auszuführen ist in der Elementarkörpertheorie die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur (möglichen) Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt.

 

In diesem Sinne geht es weiter mit phänomenologisch begründeter

"Schön" ist (auch) die

exakte Protonenradiusberechnung

im Bild der Elementarkörpertheorie

Das Produkt aus Protonenmasse und Protonenradius ist nur von Naturkonstanten abhängig. Mit Kenntnis der Protonenmasse ergibt sich der Protonenmasse inhärente Protonenradius aus der

Masse-Radius-Konstantengleichung:

m0 · r0 = 2h/πc = FEK  [F1]

...ohne das an dieser Stelle im Bild der Masse-Raum-Kopplung phänomenologisch explizit zu erläutern.

Mittlerweile wurde, wie bereits erwähnt, der "empfohlene" Wert für die Protonenmasse gemäß CODATA 2018 variiert:

mp = 1,67262192369e-27 kg

mp = 1,67262192369e-27  kg  : Protonenmasse

c = 2,99792458e+08 m/s   : Vakuumlichtgeschwindigkeit

h = 6,62607015e-34 Js

 rp = 2h/π ·c ·mp = 8,41235641342e-16 m

 

Warum CODATA [2018] den Protonenradiuswert mit 8,414(19)e-16 m angibt, bleibt im Detail fraglich. Wie auch immer, offensichtlich ist der phänomenologisch begründete, formal-analytisch einfachst berechnete Wert der Elementarkörpertheorie mit rp = 8,41235641342e-16 m in hervorragender Übereinstimmung und ultrapräzise. Man beachte diesbezüglich im direkten Vergleich die "riesigen" experimentellen Unsicherheiten, die sich durch die angegebenen Standardabweichungen zu Protonenradiusexperimenten manifestieren (Messungen CODATA).

Analytisch betrachtet bestätigen selbst die offensichtlich stark Fehler belasteten Messungen des Protonenradius die exakten Berechnungen im Modellbild einer Masse-Raum-gekoppelten Entität (Proton als Elementarkörper).

Diese Aussage bezieht sich im Hinblick auf  Standardabweichungen - sozusagen modellintern - auch auf die generelle Standardsystemphysik, wenn man sich dort zum Vergleich intern die angegebenen Abweichungen für beispielsweise die Elektronenmasse verdeutlicht: 9,1093837015(28)e-31 kg, bedeutet eine Standardabweichung von (nur) ± 0,00000028e-31kg zu 8,414(19)e-16 m beim Protonenradius.

Aus Sicht eines neutralen, wissenschaftsorientierten Beobachters ist es im Hinblick auf die geschichtlichen und aktuellen Protonenradiusmessungs-Interpretationen dilettantisch, peinlich bis unseriös, was hier von der Standardmodellphysik propagiert, kommuniziert wurde und propagiert, kommuniziert wird.

 

Direkter Denkmodellvergleich EKT vs. SM

Wie wird im Rahmen des SM der Protonenradius theoretisch berechnet?

Im Rahmen des SM gibt es diverse iterative Berechnungsversuche, die im Detail jedoch ergebnisorientiert fabriziert sind. Siehe exemplarisch:

Precision calculation of the electromagnetic radii of the proton and neutron from lattice QCD, September 2023

Alle SM-"Berechnungen" beginnen inhaltlich so:

..Wir stellen unsere Ergebnisse für die Radien und das magnetische Moment des Protons vor, die in der Gitter-QCD iterativ berechnet wurden...

Das Zauberwort heißt iterativ. Dort wird in Cluster-Großrechenanlagen solange an den Eingangsparametern algorithmisch gedreht, bis die gewünschten Ergebnisse vorliegen. Es existieren keine formal-analytischen Lösungen im Rahmen des SM, weder für die Radiusberechnung des Protons, noch für irgendeine andere Berechnung. Der Vollständigkeit halber sei erwähnt, dass das SM zwischen elektrischen  und magnetischen (Ladungs-)Radius des Protons unterscheidet.

Ohne sich explizit mit den Grundlagen der iterativen SM-Berechnungen sprich der Gittereichfeldtheorie zu beschäftigen, lässt sich selbst für Modellphysiklaien Folgendes verstehen. Diese Berechnungen sind schon aus Gründen der übergeordneten SM-Modellannahmen sinnfrei:

Gemäß SM besteht das Proton neben drei Valenzquarks aus einem Meer von vielen weiteren Quarks und Antiquarks sowie Gluonen. Darüber hinaus sind die drei Valenzquarks postuliert asymmetrisch ladungsfragmentiert:

Down-quark d Spin ½   electric charge - 1/3e

Up-Quark u    ½ Spin   electric charge + 2/3e

Proton   down + up  + up  Spin ½   electric charge +1e

 

Nach einem - mehr oder weniger - kurzen Ausflug zu persönlichen Gegebenheiten "vor und rund um den Protonenradius", geht es mit weiteren, teils geschichtlichen Aspekten zum Protonenradius weiter.  

 

 

Eigene Geschichte

„Schuld ist Klaus von Klitzing (1943 geboren), Nobelpreisträger für Physik des Jahres 1985. Während meines Physik-Studiums hielt er im Rahmen einer Jubiläumsfeier an der Universität Duisburg einen Gast-Vortrag und referierte u.a. über das Thema Naturkonstanten und in dem Zusammenhang bekräftigte er die Idee des Zufalls in der Natur. Das widersprach und widerspricht meinem Denken über Natur. Da ich mich u.a. fragte, warum jemand überhaupt einen Nobelpreis für Experimente zur Quantelung des Magnetfeldes bekam, da ich das «quantisierte Magnetfeld» im Rahmen Quantenfeldtheorie basierender Formalismen als stringent weiter gedacht, voraussetzte, entstand eine gewisse sportliche, nonkonforme Motivation, mich intensiv mit dem Sein der Materie zu beschäftigen. So entstanden im Jahre 1986 die ersten Ausführungen zur Elementarkörpertheorie (EKT).

 

Duisburg Impressionen "Nowhere to run"

 

Ich habe, mal abgesehen von Urlauben mit meinen Eltern, während meiner Schulzeit, mein Leben hauptsächlich in Duisburg-Meiderich verbracht. Mit 16 begann ich eine Ausbildung zum Chemielaboranten bei Sachtleben Chemie in Duisburg Homberg. Meine Ausbilder und Vorgesetzten waren in zwei Lager gespalten. Die einen mochten mich, die anderen lehnten mich ab. Ich galt als renitent und konnte mir gewisse Freiheiten nur leisten, weil meine fachlichen Leistungen sehr gut waren. Während meiner Ausbildung wurde mir klar, dass ich studieren möchte. Meine anfängliche Begeisterung für Chemie „wich“ der Erkenntnis, dass Chemie „nichts“ weiter als die Physik energieschwacher Elektronen ist. Somit war ich als äußerst wissbegieriger junger Mensch nun stark an Physik interessiert. Nach bestandenem Fachabitur besuchte ich erfolgreich diverse Brückenkurse und konnte letztendlich im Wintersemester 1984/85 mein D II Physikstudium beginnen, Matrikelnummer 339 140.

Insbesondere meine Mutter war zu diesem Zeitpunkt sehr stolz auf mich. «Man» machte sich Gedanken, wo denn die „übermäßige Intelligenz“ herkam. Weder meine Eltern, meine Großeltern, noch soweit verfolgbar die Familienvorfahren, waren „gebildet“. Da ich auf Grund meiner schlechten Vorbildung als Fachabiturient im Prinzip so gut wie keine Voraussetzungen mitbrachte, um den mathematischen Formalismus zu verstehen, begann gezwungenermaßen die wirkliche Entwicklung. Ich mochte das »Friß oder Stirb« Lern-Prinzip eine Matrikel-Nummer zu sein, für die sich niemand interessiert. Physik machte mir grossen Spaß. Ich entwickelte sozusagen autodidaktisch methodisches Lernen. Ich war selbstdiszipliniert, leidenschaftlich und verliebt in formale Schönheit. Und nebenbei hatte ich unglaublich viel Zeit für mich. Mit 21 früh geheiratet war mein Schicksal eigentlich besiegelt. Ich sollte Physiker werden und eine Familie gründen. Zu diesem Zeitpunkt wurde mir klar, dass ich keine Familie gründen möchte und keinesfalls eingebettet in Normalität einer Routinearbeit nachgehen wollte, auch nicht als Physiker.

 

 

Anders als erwartet...

Da ich als „Arbeiterkind“, wie bereits erwähnt, über den zweiten Bildungsweg - sprich „mittlere Reife“, Ausbildung zum Chemielaboranten, kurzzeitig Schichtlaborant, parallel zur Ausbildung und zur Schichtarbeit Fachabitur in Abendform und Brückenkurse - meinen Weg zum Studienplatz selbstmotiviert, nicht selten autodidaktisch und „hart“ erarbeiteten musste, war die freiwillige Aufgabe des Physik-Studiums alles andere als absehbar und für die meisten Beobachter nicht nachvollziehbar. Insbesondere, wenn man berücksichtigt, dass ich nach meinem Vordiplom, u.a. mit sehr guter Leistung in der Theoretischen Physik, auch meine Diplom-Abschlussprüfung im gewählten Nebenfach der Metallorganischen Chemie schon erfolgreich „hinter“ mich gebracht hatte. Mein selbstmotivierter Abbruch während der Diplomarbeit im Bereich Festkörperphysik/Konversions-Elektronen-Mößbauerspektroskopie war u.a. die Folge meiner damaligen Lebensumstände und meiner Erkenntnis zuzuschreiben, dass der Wissenschaftsbetrieb unter dem Dogma der Quantenfeldtheorie basierenden Wahrscheinlichkeitsbetrachtungen, sozusagen als "Standard des Verstehens", erkenntnistheoretisch nichts wesentlich Neues generiert. Festkörperphysik als solche interessierte mich nur am Rande. [Übrigens, es gibt nach wie vor keine konsistente Theorie respektive Modellvorstellung für die signifikante Häufigkeit und den Prozess der Konversionselektronen(-Entstehung).]

Es folgten mehr als zwei Jahrzehnte grundlagenphysikferner intensiver Beschäftigung mit Erotik, Kunst und assoziierter Gesellschaft. U.a. mit dem plakativen Versuchsergebnis: Nahezu alle Probanden der so genannten freien Gesellschaft sind bei genauer Betrachtung Hilfserotiker. »Tagelöhner der Lust« ohne erotische Kultur und ohne Aussicht auf Entwicklung. Mit der erschwerenden Randbedingung, dass sie sich dessen so gut wie gar nicht bewusst sind.

 

 

Fragmentarisches zur Geschichte der künstlerischen Aspekte

Mein offizieller Künstlername (sprich im Personalausweis vermerkt) ist AlexD.

 [AlexD(irk Freyling) kurz adf]

 

Ohne das hier näher auszuführen habe ich mich erst mit Anfang-Mitte 30 für Kunst interessiert. Es folgte in dem Zusammenhang ein ausgiebiges autodidaktisches kunstgeschichtliches Studium nach akademischen Vorbild mit den Schwerpunkten Expressionismus und Moderne Kunst. Ich sehe mich in der Tradition der Expressionisten und habe meine eigene Kunstbewegung ins Leben gerufen.

 

 

 

 

ELEMENT I ist inspiriert durch Jackson Pollock und Nebelkammerimpressionen

 

 

 

 

Es existiert ein großer (interdisziplinärer) (teils dokumentarischer) Fundus in Form von Fotografien, bewegten Bildern (SD, Full-HD, GIF-Animationen und stereoskopischem 3D), Malerei, diversen Kunstobjekten, Kunstinstallationen sowie diversen Texten zu Kunst, Wissenschaft (insbesondere der Theoretischen Physik) und Gesellschaft. Im "Mittelpunkt der Regie und Umsetzungen" steht (Alex) Dirk Freyling. Die hier exemplarisch vorgestellten Arbeitsproben bilden wortwörtlich nur einen sehr kleinen Teil des Gesamtwerkes ab, unter anderem mit dem Ziel, Betrachtern zumindest einen ungefähren Überblick "näher zu bringen". Wenn nicht anders bemerkt, stammen die Textzusammenstellungen und Textausführungen von (AlexDDirk Freyling [adf].

 

 

Punktuell-Fragmentarisches zu meinen "Triebtheaterinszenierungen"

Die Aufklärung ist, im Angesicht der Tatsache, dass religiöser Glauben nicht überwunden wurde, komplett gescheitert.

Da ich organisierte Religionen strikt ablehne, habe ich meine eigene Zeitrechnung eingeführt. Exemplarisch: 59ndf bedeutet 59 Jahre nach der Geburt von Dirk Freyling  statt 2023 nach Jesus Christus.

 

 

 

   

 

  [AlexD Berlin Oktober 59ndf]

 

Zum optischen "Personen-Verständnis", früher hatte ich während meiner aktivsten AlexD-Fetisch-Bilder-Film-Phase, lange, schwarz gefärbte Haare,...

Jäger und Sammler AlexDirk no2     c-print      director of photography : adf  foto by T.B.    48ndf ]

 

 

 

 

Jäger und Sammler AlexDirk     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

 

 

[AlexDiva   c-print  foto by T.B.   Sint Maarten Caribbean Sea]

 

 

 

 

WHAT IS ART?

ART is a MAN's NAME. [Andy Warhol]

[c-print adf ]

Andy Warhol (1928 - 1987) war einer der wenigen frühen "Rebellen der Moderne", die den kommerziellen Faktor äußerst gewinnbringend zelebrierten, und er war auch einer der wenigen Künstler, die in den Genuss der Kapitalisierung ihrer "Kunst" kamen.

Der Künstler Jannis Kounellis über Warhol: "Er ist talentlos, ein Publizist und kein Künstler. Man hat diesen Idioten gefragt, welche italienischen Künstler er kenne. Er hat geantwortet, dass er von Italien nur die Spaghetti kenne."

*Jannis Kounellis (1936 - 2017), lebte in Italien und galt als einer der international bedeutendsten zeitgenössischen griechischen Künstler.

Wie ausgeprägt Warhols Kritik an der Gesellschaft seiner Zeit war, ist schwer zu sagen. Allgemein ist meine Erkenntnis dazu:

Gesellschaftskritische Künstler(innen) kann man nicht mögen, man kann sie im günstigsten Fall erfolgreich kapitalisieren. 

 

Ein »Werkzeug«, um der etablierten Form- und Inhalts-Verwahrlosung der Kunst(-Produkte) entgegen zu treten, ist "die" bewusste, selbstinszenierte konzeptionelle Parodie auf moderne Kunst und deren Künstler. Analytische Anatomiestudien können so mehrdeutig verstanden werden.

 

Angry parrot on a cannonball in cosmic enviroment {and I „right in the middle“} ]

Wütender Papagei auf einer Kanonenkugel in kosmischem Umfeld {und ich „mittendrin“} ]

[ paint and mixed media on door  85 x 200 cm  adf 9.56 ndf ]

 

 

[ 316  mixed media on wooden door   adf  60ndf]

 

 

 

Kunst sollte mehr sein als «Allegoriengeschraube»

[ready-made (mein) Fahrrad und Malerei von mir     c-print]

 

Die Bedeutungslosigkeit "moderner" Kunst ist dank Marcel Duchamps Wirken inhärenter Begleiter des "modernen" Künstlers. Künstlerische Fertigkeiten sind zwar von Vorteil, lassen sich aber stets als "nur" Kunsthandwerk verstehen. Konsequent zu "Ende" gedacht, ist der Preis für die Unabhängigkeit des Künstlers, die Befreiung vom Kapital. Wahre Kunst ist frei von Kapitalerträgen. Diese Freiheit lässt sich ohne "Goldene Löffel-Geburt" im Rahmen eines theoretischen Modells nur mit Einnahmen aus dem kunstnahen Bereich verwirklichen.

 

 

Wolfgang Ullrich beschreibt [K] die zeitgenössische Kunst folgendermaßen:

…“So wie man die Kunst „an sich“ schätzt und sich darin gefällt, sie als Mysterium zu verehren, will man auch von den Künstlern nichts anderes, als dass sie Kunst machen. Welchen Themen sie sich widmen und ob sie Techniken weiterentwickeln, ist den meisten hingegen egal. Etwas angeblich nicht lehrbares – die Kunst selbst – ist viel mehr das einzige Ziel, dass an Akademien verfolgt wird und um dessen Willen alles andere – sowohl Handwerkliches als auch Wissen – nicht selten als irrelevant oder sogar störend, als Ablenkung vom schöpferischen Prozeß gesehen wird. Kein Wunder, wenn vielen Werken daher, wie Rainer Metzger bemerkte, „die Kompetenz abhanden gekommen ist, für etwas einzugestehen, dass sie nicht selber sind“...

 

[wallface Alltagskunst  adf 09 59ndf c-print]

 

"Mit öffentlicher Unterstützung – immerhin stehen fast alle Kunsthochschulen nach wie vor unter staatlicher Hoheit – werden Kunststudenten also dem Kunstglauben und Autonomiekult geopfert. Polemisch formuliert: Die Gesellschaft – letztendlich nur eine kleine Minderheit davon – hält sich die Künstler aus Gründen des Lustgewinns und läßt sie entsprechend einseitig erziehen. Dies ist umso zynischer, als die meisten Absolventen von Kunsthochschulen feststellen müssen, daß Galerien oder Kunstvereine sie gar nicht mögen. So bleiben sie, sofern sie keinen anderen Beruf erlernt haben auf schlechtbezahlte Gelegenheitsjobs angewiesen und erfahren immer wieder leidvoll, dass ein gemäß dem Autonomie-Dogma angelegtes Kunst-Studium im Unterschied etwa zu einem geisteswissenschaftlichen Studium nichts vermittelt, was auch anders wo helfen könnte. Eine Kunst-Akademie ist vielmehr ein Vakuum – ein Raum, in dem die Freiheit lebensbedrohliche Ausmaße angenommen hat und wo Menschen bewußt zu Idiosynkratikern erzogen werden, um den Fetisch „Kunst“ möglichst rein zu produzieren und um diverse Vorstellungen von Autonomie zu reproduzieren.“…

[K][... Gesucht: Kunst! Phantombild eines Jokers von Wolfgang Ullrich,  Verlag Klaus Wagenbach, Berlin 2007]

 

 

AlexD vor und hinter der Kamera

Zur Erinnerung: Die einstigen Expressionisten waren im Vergleich zu Heute, arme Künstler und (später) vom ersten Weltkrieg "gezeichnet". Die zum Teil hohen bis exorbitanten "post-mortem-Preise" für ihre Bilder stehen im krassen Gegensatz zu ihrem kargen Leben. Die implizite «Romantisierung» ihres Künstlerdaseins im Rahmen der nachträglichen Kapitalisierung ihrer Kunstwerke ist eine marktstrategische Eigenheit. Kapitalismus "schmeckt" halt besser, wenn man dem Produkt eine menschliche Komponente des romantischen Glücks anhängt. Abstrakte Expressionisten wie Mark Rothko oder Jackson Pollock waren alles andere als "glückliche" Menschen. Begriffe des heutigen Kunstmarktes wie Allegorie oder Diskurs sind, wie mathematische Symbole, blutleere Gebilde. Eine geldgeile Elite, die sich in der Regel weder mit den Befindlichkeiten der Künstler, noch mit sonst einem Detail des "Künstlerleids" beschäftigt regiert und selektiert. Künstler sind spezielle Soldaten des Kapitals. Die Illusion von Freiheit und Romantik des Künstlers soll über die Beliebigkeit von Kunst hinwegtäuschen. Der «Markt» bringt immer wieder "punktuell" Künstler wie Damien Hirst oder Jeff Koons "ganz" nach oben. Die so generierten extrem wenigen Multimillionäre der Kunst sind bei genauer Betrachtung notwendige Zufallskandidaten, die den Mythos des erfolgreichen Künstlers aufrecht erhalten. Wer bei solchen Künstlerstars nach einer systemkritischen Meinung oder auch nur einer unbequemen Meinung sucht, wird wenig bis nichts finden. Jeff Koons ist ein  treffliches Beispiel für eine gut dokumentierte Assimilation des "einstigen" Störers.

Kunstschaffende wie Martin Kippenberger haben sich früh zu Tode gesoffen, weil sie nach ihrem Verständnis keine adäquate Anerkennung zu Lebzeiten bekamen. Erst nach seinem Tod wurde er erfolgreich (kapitalisiert). Die idealisierte Freiheit der Kunst birgt die größte Gefahr für den Künstler. Erstens gibt es real weder Meinungs- noch Kunstfreiheit, zweitens ist die Bewertung von Kunst insbesondere aufgrund der fehlenden "Qualitätskriterien" und der gängigen "Aussageverweigerung" eine reine Kapitalmarktangelegenheit. Banken, Versicherungen, Energiekonzerne und deren "Manager" sponsern, selektieren und kapitalisieren beliebig Kunst. Die vermeintlich erfolgreiche Gegenwartskunst "wandert" dann auf Halde. Hinter verschlossenen Safetüren soll sie möglichst viel Rendite abwerfen. Kunstfonds sind beliebte Finanzierungs- und Kapitalmodelle. Das in diesem Markt kein Platz für gesellschaftskritische, basisnahe, "natürliche", kapitalsystemkritische Künstler ist, versteht sich von selbst. Es sei denn sie genügen den zeitgeistlichen Trends, wie exemplarisch der »Wokeness« und dem »Gender-Wahn.«

"Eins" sollte auch klar sein, Leben ist egoistisch. Künstler sind immer auch egozentrisch und wünschen sich Aufmerksamkeit. Inwieweit ein privat motiviertes Anliegen des Künstlers und "Besitzerfreuden" der Sammler auch gemeinnützliche Aspekte generieren, steht auf einem anderen Blatt.

 

 

AlexD vor und hinter der Kamera

 

 

[adf & T.B. ARTSTOFF Galerie Berlin Vernissage ß-Show Oktober 2010]

 

 

adf woodwork workspace 53ndf

 

 

 

 
AlexD 33ndf (1997) nähe Holguin erster Kuba-Besuch ]
 
 
 
 
 

 

Aus Spaß an der Freude zum Thema Bach im Rahmen meiner Kunstbeiträge...

Video

»Bach Interpretation Toccata und Fuge in d-moll Maximilian & Muse«
 

Wir (Dirk Freyling alias AlexD [Idee und Regie], Eve [Muse], Maximilian) haben einen ganzen Tag lang, Bach auf dem Cello „modern“ an verschiedenen Orten und im Freien (wiederholt) interpretiert. Maximilian ist professioneller Orchester-Cellist.

 

 

[Angela Brasil    Berlin    adf c-print]

 

 

 

 

 

a special happy hour guest summer 2020   [cocktail: Havanos Havanna]

Die (spanische) Fliege saß und aß. Die Blöden hatten ihren Spaß…

Es ist schon sehr befremdlich wenn heutzutage das noch existente Feuilleton der bekannten und weniger bekannten Zeitungen versucht Literatur oder allgemein Zeitgeschehen zu analysieren oder gar zu bewerten. Die modernen Schreiberlinge verfügen weder über das notwendige faktische Wissen noch über die für das Genre notwendige eigene Erfahrung. „Die gelernte Unfähigkeit“, sprich die Unfähigkeit Wichtiges von Unwichtigem zu trennen, und das Fehlen eines unterhaltsamen Schreibstils erfreuen sich omnipräsenter Beliebtheit.

„Auf der anderen Seite“, im Glauben an die Macht des individuellen Aktivismus verliert sich der kritische Leser im Kommentarfeld, wenn er denn darf, was nicht bei allen Artikeln der Fall ist. Die Synthese aus täglichem Artikeljournalismus und angesiedelten Kommentarfeldabsonderungen ist der zähe Beweis für vitalen Schwachsinn. Eine Erneuerung kann ohne Erneuerer nicht stattfinden. Weder der Journalist, noch der kritische Leser hat das, was man braucht um eine Veränderung durchzuführen.

Es ist übergeordnet schwer in einem unwissenschaftlichen, substanzlosen Sumpf aus Emotionen, Halbwissen und Propaganda wissenschaftlich und zielführend vorzutragen. Jedes noch so plausible Argument, jede noch so gute Idee wird im Verbund von Politik, Wirtschaft und Systempresse solange der medialen Schlammschlacht ausgesetzt, bis alles Neue mit dem Schmutz der Vergangenheit bedeckt ist.

 

 

Ich lebe willentlich teilisoliert auf dem Land. Sofern ich Menschen authentische Nähe gestatte, finden die mich, von Angesicht zu Angesicht, meist unterhaltsam und konstruktiv.

 

 

 

 

[Raubtier & Alex Dirk Freyling c-print  foto von T.B. 59ndf]

...am Rand des Wissens dem Wirrsein nah

stumm die mein Schweigen mehren

das Leben ist so wunderbar...

[Basissuche Dirk Freyling 47ndf]

 

 

Landleben Impressionen

 

 

 

 

[Strand Warnemünde c-print  adf  59ndf]

 

 

 

[Madlaine & Angela    Warnemünde Strand   c-print   adf   46ndf]

 

 

 

[Miss Cheyenne    Warnemünde Strand   c-print   adf  46ndf]

 

 

 

[Miss Cheyenne  & Kathleen White    Warnemünde Strand    c-print   adf  46ndf]

 

 

 

[ nature     c-prints  adf  45ndf ]

 

 

 

es war einmal...

 
 
[ DominaSilvia & AlexD   Dungeon BeaudryStreet  Montreal  c-print   32ndf (1996) ]

Mitte-Ende der 1990er Jahre

Fetish Cafe Montreal

 

Ich bin der Inititor, Mitbegründer (1995 AlexD, Domina Silvia, Eric Paradis) und war Mitbetreiber des Fetish Cafes Montreal (Cafe Fetiché). Über das Thema Fetisch hinaus trafen sich dort alternative Filmemacher, Musiker und Kunstinteressierte, wie David Liss, der damalige Kurator des Saidye-Bronfman Centre for the Arts. Er war auch derjenige der mich motivierte meine Fetischaktivitäten als Kunst zu „verstehen“. In der Folge organisierten wir monatlich größere Veranstaltungen in (normalen) Clubs, so genannte Montreal Fetish Nights. Daraus entstand dann das legendäre »Montreal Fetish Weekend«, welches bis heute von dem damaligen Geschäftspartner Eric Paradis veranstaltet wird.

 

 

 [Domina Silvia   Stacy   Philip  "gute Seele" Hausmeister des Fetish Cafes]

 

 

[ von links Salem, "Bedienung" im Fetish Café ...Latex-Mode-Foto-Session,  (part time lover) Jennifer-Ann  Domina Silvia  AlexD ]

 

 

[Stacy "Bedienung" Fetish Cafe & part time lover]

 

 

[ Chriss Lee von Talamasca     ...live im Fetish Cafe ]

 

 

Obiges Kurz-Video-Collage zeigt u.a. Impressionen von einer Montreal Fetish Night (EROTIKA), die wir monatlich zum Fetish Cafe-Betrieb in nahegelegenen Clubs veranstalteten, sowie meine »part time lovers« StacyJezebel und Jennifer Ann (fetish party performers), Chriss Lee - Talamasca bei einem Konzert und Domina Silvia. Es existieren von den damaligen NTSC-Aufnahmen nur sehr niedrig auflösende Fragmente, daraus resultiert hier die Idee der Überlagerungs-Collage mit späteren AlexD typischen Bewegtbildern.

 

[ AlexD-Fotosession Polymorphe Latex Fetish Cafe & Beaudry Street Dungeon  adf ]

Ich war auch einer der ersten Fotografen, die das damals gegründete Latex-Mode-Label Polymorphe aus Montreal abbildeten.

 

 

Ich habe diverse Musik Video Projekte initiiert und durchgeführt. Wie z.B. für Soulstripper...

[ Dungeon Beaudrystreet (gegenüber vom Fetish Cafe) Musik-Video-Aufnahmen mit Soulstripper ]

 

 

 

Montreal Fetish Festival

Ich bin der Mit-Vater (Festival-Geburtsjahr 1996) der größten nordamerikanischen Fetisch-Veranstaltung, siehe »Montreal-Fetish-Festival«, welches nach wie vor und aktuell von dem Französisch-Kanadier Eric Paradis (damaliger Geschäftspartner) betrieben wird.

 

 

 

Front-Video- später -DVD-Cover ohne AlexD-Logo im Verkauf

Coverbild(er) als Alleinstellungsmerkmal teils ohne üblichen Autorenhinweis 

AlexD Fetisch-Filme

Ich habe insbesondere im Zeitraum von 2000 bis ~ 2010 „gut und gerne“, international erfolgreich, von der Gestaltung, Durchführung, Produktion und dem Vertrieb von explizit erotischen Fetischfilmen in einem künstlerischen Gesamtkonzept gelebt [AD]. Das ermöglichte mir eine nachhaltige Basis zu schaffen, zeitreich zu sein. Zur Berlinale 2014 „durfte“ ich in einem RBB-Interview kurz zu »Pornografie und Kunst« [PK] sprechen.

 

[PK] Hintergrund

Es gab bis heute keinen nennenswerten Kinospielfilm der im Gesamtkonzept die menschliche Sexualität in Form von erotisch expliziten Abbildungen positiv dem Zuschauer näher bringt. Nur wenn die Film-Charaktere in letzter Konsequenz leiden, ihrem Trieb unterlegen sind und die situative sexuelle Freiheit mit Drama, Psychose, Gewalt, bis hin zu Mord und Selbstmord endet, waren und sind diese Filme überhaupt existent und marktfähig. Wie Baise-moi oder Nymphomaniac.

Es fehlt bis heute der öffentliche Kinospielfilm, der authentisch das positive Potenzial der Sexualität in Form von explizit erotischen Bildern zur Freude der Menschen aufzeigt.

 

[AD] ...  Ich bin, ohne Übertreibung, ein international bekannter Fetischfilmregisseur (AlexD), u.a. auch Venus-Award-Gewinner 2004. Ich gehöre weltweit historisch zu den TOP TEN dieses Genres.

    

Das Problem war/ist, dass im Zuge der deutschen und europäischen Informationszensur, alle direkten Einträge bezüglich meines Künstlernamens AlexD aus europäischen Suchmaschinen Schritt für Schritt auf Initiative der deutschen Bundesprüfstelle gestrichen wurden. Nicht weil meine Inhalte gefährlich wären, der Grund war/ist: Ich habe mehrfach die Bundesprüfstelle massiv auf sachlicher Ebene in Frage gestellt. Ich hatte u.a. Horst Ehmke (1927 – 2017) persönlich kennengelernt und war an der Seite des Parteivorsitzenden Uwe Albrecht Ende der 1990er Jahre kurzzeitig Mitglied der SPD-Augsburg (Arbeitskreis Innere Sicherheit). Zuvor wurde ich vom kanadischen Staat wegen moralischer Verfehlungen verfolgt (… „Täter ohne Opfer“) und hatte letztendlich die Wahl zwischen Deportation oder freiwilligen Wegzug aus Kanada. Meine Internetseiten im Rahmen meines Künstlernamens AlexD wurden, wie bereits erwähnt, auf Bestreben der deutschen Bundesprüfstelle [BP  heute Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ)] letztendlich im gesamten europäischen Raum aus den Suchmaschinen verbannt, da im Zuge der „europäischen Homogenisierung“ auch Inhalte im europäischen „Suchmaschinen-Ausland“ wegzensiert wurden, obwohl diese dort in jeder Hinsicht unproblematisch sind. Wenn man so will im Ergebnis ein europäisches Werbe- respektive diesbezügliches Berufswerbeverbot auf Grundlage von tradierten, willkürlichen Moralvorstellungen.

 

 

Es existiert ein großer (interdisziplinärer) (teils dokumentarischer) Fundus (SD, Full-HD, GIF-Animationen und stereoskopischem 3D) sowie diversen Texten zu Kunst, Wissenschaft und Gesellschaft. Die hier exemplarisch vorgestellten Arbeitsproben bilden wortwörtlich nur einen extrem kleinen Teil des Gesamtwerkes ab, unter anderem mit dem Ziel, Betrachtern zumindest einen ungefähren Überblick "näher zu bringen". Wenn nicht anders bemerkt, stammen Textzusammenstellungen und Textausführungen von (AlexD) Dirk Freyling [adf].

 

[ Glamour Fetish Beauties from Prague c-print adf 43ndf ]

Es gibt auch eine unzensierte Variante der vorliegenden Ausführungen in einem Passwort geschützten Bereich, die gemäß der Natur des Gezeigten auch explizit sexuelle Aktivitäten abbildet. Da die Veröffentlichungen dieser menschlichen Interaktionen, je nach vorherrschenden Normen und Gesetzen unerwünscht sind, tabuisiert werden und - trotz vermeintlicher Kunstfreiheit - öffentlich abgebildet verboten sind, können die AlexD-Alleinstellungsmerkmale hier im allgemein-öffentlichen Bereich nur erahnt werden.

 

 

Was ist und was darf sein

Nicht die Dokumentation eines Blutbades, Abbildungen von Selbstverbrennungen, Folter, Exekutionen, Mord und Totschlag, schwere Unfälle, Krieg, Verstümmelte, psychisch Kranke und Verwahrloste in Wort und Bild schockieren den Neuzeitmenschen. Diese Inhalte sind Tagesgeschäft in Nachrichtensendungen, Print- und Online-Medien. Allen voran youtube. Diese Abbildungen grausamer Realität werden vervollständigt durch ein omnipräsentes Angebot von inszenierter Gewalt in Fernsehserien, Kinofilmen und Computerspielen. Gewaltabbildungen sind das täglich Brot der Medien und deren Konsumenten. Nichts ist so weltumspannend, wie die Gier nach Leid und Elend. Schon Kleinkinder werden diesem Medienterror ausgesetzt.

Es ist keine Seltenheit, dass auch im öffentlich rechtlichen deutschen Fernsehen gewaltverherrlichende Filme, wie beispielsweise Payback mit Mel Gibson, gezeigt werden. Folter und die Lust am Töten werden hier mit Zwangsgebühren von der deutschen Allgemeinheit finanziert.

Es gab bis heute keinen nennenswerten Kinospielfilm der im Gesamtkonzept die menschliche Sexualität in Form von erotisch expliziten Abbildungen positiv dem Zuschauer näher bringt. Nur wenn die Film-Charaktere in letzter Konsequenz leiden, ihrem Trieb unterlegen sind und die situative sexuelle Freiheit mit Drama, Psychose, Gewalt, bis hin zu Mord und Selbstmord endet, waren und sind diese Filme überhaupt existent und marktfähig, wie Baise-moi oder Nymphomaniac.

Es fehlt bis heute der öffentliche Kinospielfilm, der authentisch das positive Potenzial der Sexualität in Form von explizit erotischen Bildern zur Freude der Menschen aufzeigt.

Was ist die Botschaft, wenn Gewaltverherrlichung fester Bestandteil der Abendunterhaltung ist, aber die menschliche Sexualität kategorisch nicht abgebildet wird? Implizit wird hier suggeriert das explizite Abbildungen sexueller Lust negativer sind als Abbildungen exzessiver Gewalt. Gewalt wird hier als Sehenswertes glorifiziert, Sexualität als unzeigbar dämonisiert. Das ist nicht nur a-sozial sondern auch im höchsten Maße menschenverachtend.  

Wenn Sie einen Zeitgenossen im 21.Jahrhundert wirklich verstören wollen, dann benötigen Sie nichts weiter als sichtbare Geschlechtsteile. Noch größer ist die Verstörung, wenn menschliche Sexualität abgebildet wird.

Weibliche Brustwarzen auf youtube rufen anonyme Plattformzensoren auf den Plan. Der öffentlich zur Schau gestellte menschliche Penis gilt als jugendgefährdend, der erigierte Penis bringt sie auch bzw. insbesondere in Deutschland in Konflikt mit dem bundesbehördlichen Jugendschutz.

Abgebildete Geschlechtsteile und die Sexualität des Menschen werden undifferenziert als Porno(grafie) bezeichnet und weltweit als schwere Verfehlung gewertet. Wie und warum Abbildungen von Teilen des menschlichen Körpers jugendgefährdend sein können, wird von den Zensurbefürwortern nicht erklärt. Das ist wenig verwunderlich, da es schlicht keine rationale Erklärung gibt. Die verantwortliche Moraltheologie war und ist erklärungsbefreit.

Der vermeintlich erwachsene Mensch, der in diesem Klima der Selbstleugnung und kollektiven Bewusstseinsstörung aufwuchs gilt als normal. Scham, Angst, Unwissenheit haben ihn zu einem Hilfserotiker gemacht, der nicht selten heimlich Pornos schaut.

Die zahlreichen positiven geistigen und körperlichen Aspekte der Sexualität werden ausgeblendet. Was sollte an menschlicher Lust schlecht sein? Was gibt es intensiveres als den Orgasmus? Warum sollte menschliche Sexualität nur dann stattfinden dürfen, wenn diese an Monogamie, Zweisamkeit und Liebe gebunden ist? Warum sollte eine öffentliche Sexualität falsch sein?

Das Gros der Anthropologen, Psychologen, Psychiater, Therapeuten bilden zum Thema Sexualität eine schweigende Mehrheit. Notwendige Aufklärung oder gar richtungweisende Plädoyers für einen natürlicheren Umgang mit dem eigenen Körper, u.a. als Funktional gelebter Freiheit und basisnaher Freude bleiben aus, bzw. werden sowohl von der Bildungs-Politik als auch von den Medien ausgeblendet.

Auch das ist nicht verwunderlich, wenn man sich verdeutlicht, dass diese Menschen zwar eine wissenschaftliche Ausbildung besitzen, aber dennoch als Individuum selbst kaum über den Status des Hilfserotikers hinaus kommen. Des Weiteren leben diese als Dienstleister von dem körperlichen und psychischen Leid ihrer Artgenossen. Gesundes Essen, mehr Bewegung und freie Sexualität der Kunden bedeuten weniger Verdienst.

 

 

[BP] Die [un]natürlichen Feinde der Kunst, insbesondere der erotischen Kunst, waren und sind die organisierte Religion und der Staat.

Im 4. und 5. Jahrhundert wurden in Europa fast alle Bücher von Autoren, die keine Christen waren, vernichtet, meist verbrannt und gingen für immer verloren. Die Feinde des christlichen Gedankenmonopols wurden entsprechend "katalogisiert". Siehe die Liste der von der katholischen Kirche verbotenen Bücher: Index Librorum Prohibitorum (kurz Index Romanus), sie umfasste etwa 6000 Werke von Autoren wie Pascal, Bacon, Descartes, Kant, Kopernikus, Galileo, Diderot, D'Alembert, Comte, Defoe, Balzac, Flaubert, Hugo, Heine, Zola, Maeterlinck, Sartre, Simone de Beauvoir, ..., die von der Kirche als antichristlich angesehen wurden. Diese Liste wurde bis 1965 offiziell aktualisiert. Die 1954 gegründete deutsche Bundesprüfstelle (für jugendgefährdende Schriften, bis April 2021 Bundesprüfstelle für jugendgefährdende Medien (BPjM), jetzt Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ)) war mit einer zeitlichen Überschneidung von fast 10 Jahren, der deutsche Nachfolger des Index Romanus, im Sinne der kirchlichen Moralvorstellungen.

 

 

Auf dem Weg zum "Engel" hat sich der Mensch jenen verdorbenen Magen und jene belegte Zunge angezüchtet, durch die ihm nicht nur die Freude und Unschuld des Tieres widerlich, sondern das Leben selbst unschmackhaft geworden ist: - so dass er mitunter vor sich selbst mit zugehaltener Nase dasteht.

Friedrich Nietzsche

 

 

[ art soldier ready-made Katja  c-print   adf  44ndf ]

 

 

Menschen gehen ins Restaurant, ins Kino oder Theater und lassen sich bekochen und unterhalten. So genannte Spas sind sehr beliebt. Menschen lassen sich dort baden, massieren, einölen, mit heißen Steinen bedecken oder in Schlammtücher einwickeln. Wäre es auf der Suche nach der maximalen Entspannung nicht nahe liegend, sich sexuell verwöhnen zu lassen? Der Orgasmus hat von allen möglichen Entspannungs-  und Glücksformen das größte Potenzial. Kein anderer Vorgang verbindet geistiges und körperliches Glück so intensiv. Denken Sie mit. Machen Sie mit.

 

 

MissEve & Beauty    WhiteClub Berlin    c-print   adf 41ndf ]

 

 

«Der sexuelle Rausch ist womöglich das intensivste Freiheits- und Zufriedenheitsgefühl das den Menschen möglich ist. Und damit der geschworene Feind aller institutionalisierten Macht

 

 

Je stärker Menschen ihre sexuellen Begierden bekämpfen, desto unerbittlicher werden ihre Moralforderungen. Die Erniedrigung, Missachtung, Beschmutzung der Sexualität ging u.a. von Zölibatären aus, die einen harten Kampf gegen ihre eigene Sexuallust führen mussten. Die harten Sexualgesetze sollten die Bürger vor Gottes Bestrafung (Sturm, Feuer, Hungersnot, Pestilenz, Erdbeben) als Folge heidnischer Schandtaten wie Homosexualität und Ehebruch bewahren. Nach wie vor triumphiert die jüdisch-christliche Reduzierung der Sexualität auf ihre Zeugungsfunktion. Bis heute bildet sie die Grundlage der westlichen Sexualmoral.

 

 

[making of an AlexD movie   c-print  adf   AlexD & KathleenWhite]

 

 

Pornografie und Katechismus der Katholischen Kirche als Maßstab

1973 wurde der Begriff der »unzüchtigen Schrift« durch den gleichfalls unbestimmten Begriff »Pornografie« ersetzt. Die gängige Beschreibung der Pornografie leitet sich aus dem Katechismus der Katholischen Kirche (kurz KKK) ab.

KKK 2354 Pornographie besteht darin, tatsächliche oder vorgetäuschte geschlechtliche Akte vorsätzlich aus der Intimität der Partner herauszunehmen, um sie Dritten vorzuzeigen. Sie verletzt die Keuschheit, weil sie den ehelichen Akt, die intime Hingabe eines Gatten an den anderen, entstellt. Sie verletzt die Würde aller Beteiligten (Schauspieler, Händler, Publikum) schwer; diese werden nämlich zum Gegenstand eines primitiven Vergnügens und zur Quelle eines unerlaubten Profits. Pornographie versetzt alle Beteiligten in eine Scheinwelt. Sie ist eine schwere Verfehlung. Die Staatsgewalt hat die Herstellung und Verbreitung pornografischer Materialien zu verhindern.

Der deutsche Gesetzgeber hat das Weltbild der Katholischen Kirche, trotz gebotener Weltanschauungsneutralität und angeblicher Trennung von Staat und Kirche mittels Bundesprüfstelle, umgesetzt.

 

res mixta

Dass es keine Trennung von (christlicher) Religion und Staat in Deutschland gibt, vermittelt unmißverständlich bereits das Deutsche Grundgesetz:

Präambel des Deutschen Grundgesetztes [Bundesministerium der Justiz]

 „Im Bewusstsein seiner Verantwortung vor Gott und den Menschen, von dem Willen beseelt, als gleichberechtigtes Glied in einem vereinten Europa dem Frieden der Welt zu dienen, hat sich das Deutsche Volk kraft seiner verfassungsgebenden Gewalt dieses Grundgesetz gegeben. Die Deutschen in den Ländern Baden-Württemberg, Bayern, Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Saarland, Sachsen, Sachsen-Anhalt, Schleswig-Holstein und Thüringen haben in freier Selbstbestimmung die Einheit und Freiheit Deutschlands vollendet. Damit gilt dieses Grundgesetz für das gesamte Deutsche Volk.“

Aussage-logisch bedeutet das für Deutsche, die nicht an Irrationalitäten wie Gott glauben, dass diese Staatsbürger das Grundgesetz nicht mitgestaltet haben, was sich schon dadurch aufzeigen lässt, dass in der Präambel „Im Bewusstsein seiner Verantwortung vor Gott" mit Sicherheit nicht stehen würde, und es bedeutet konsequent auch, das die Gottes-Ungläubigen vom Grundgesetz ausgeschlossen werden bzw. ihren Nichtglauben aufgeben müssen, um in den „Genuß“ des Grundgesetzes zu kommen.

 

Jedermann sei untertan der Obrigkeit, die Gewalt über ihn hat. Denn es ist keine Obrigkeit außer von Gott; wo aber Obrigkeit ist, die ist von Gott angeordnet.  (Bibel, Römerbrief 13)

Seid untertan aller menschlichen Ordnung um des Herrn willen, es sei dem König als dem Obersten oder den Statthaltern als denen, die von ihm gesandt sind zur Bestrafung der Übeltäter (Bibel, 1.Brief Petrus 2)  

Somit sollte sich niemand wundern, dass mit oder ohne Königshaus, die Kirche, wenn nicht den Vatikan, den Staat schon immer und heute noch als legitimierte Kirchenmacht, Verzeihung Gottesmacht ansieht und preist. 

 

Religionisierung

Es ist immer ein sicheres Zeichen der »Religionisierung«, wenn die Folgerung feststeht und Begründungen wechseln. Kam der Komet: tut Buße und zahlt; kam die Flut: tut Buße und zahlt; kam die Dürre: tut Buße und zahlt,… Bei Lockdowns, SARS-CoV-2-Impfung usw. war es ebenso. Die Impfung avancierte zum neuen Sakrament in den Kirchen. Insofern ist es lachhaft und - rational-analytisch formuliert - Realitätsverweigerung, wenn man heute von einem „säkularen“ Zeitalter spricht. Nie war das »religionistische Rationalisieren“« der Vorurteile, Wünsche und »Rudeleinbettungsbedürfnisse« so stark - und es ist stark - weil es nie zuvor so viele »Angebildete« statt Ausgebildete gab, die zwar gelernt haben, wie man Fremdwörter ausspricht, obwohl sie deren Bedeutungen nicht kennen und mit der Miene eines Wissenden Gedanken simulieren, wobei sich die geistigen Kapazitäten dieser »Zeitgeist-Volks-Repräsentanten« nahe der Null-Linie tummeln und neben gelernten Phrasen nichts aus ihren hohlen Birnen kommen kann respektive kam und kommt.

  

Sexual- und Körper-Feindschaft als fester Glaubensbestandteil

Die Sexualfeindschaft ist in den biblischen Texten fest verankert, sie ist keineswegs nur eine mit dem Christentum verknüpfte historische Zufälligkeit. Im Alten Testament erfährt die Erotik noch positive Würdigungen, im "Hohe Lied Salomo" wird das Göttliche sogar in einer erotischen Sprache gepriesen. Im Neuen Testament dominiert hingegen die Ablehnung der Sexualität, nirgendwo wird die Erotik, die körperliche Sinnlichkeit, oder die Verführungskraft einer Frau gepriesen. Während sich etwa die griechischen Götter durch sexuelle Leidenschaften auszeichnen, soll das Göttliche in der christlichen Religion jenseits des Sexuellen angesiedelt sein.

Die "Heilige Familie" ist ohne Sexualität. Maria empfängt Jesus auf jungfräuliche Art, ohne dass sexuelle Leidenschaften im Spiel sind. Joseph, Jesus Vater, ist kein richtiger Vater, seine Sexualität ist bei der Zeugung nicht im Spiel. Jesus, der Sohn, zeigt sich frauenfreundlich, aber er zeigt kein erotisches Interesse an Frauen.

Besonders deutlich kommt eine christliche Sexualfeindschaft bei Paulus zum Ausdruck. Bei ihm heißt es: "Es ist gut für den Mann, keine Frau zu berühren. Wegen der Gefahr der Unzucht soll aber ein jeder seine Frau haben, und jede soll ihren Mann haben. Der Mann soll seine Pflicht gegenüber der Frau erfüllen und ebenso die Frau gegenüber ihrem Mann." (1. Korinther 7, 1-3) In dieser Äußerung erscheint die Sexualität prinzipiell als ein Übel, das mit Hilfe der Ehe gezähmt werden soll. Die Sexualität soll keine Lust oder Freude spenden, sie soll allenfalls als unvermeidbar akzeptiert werden.

Das Neue Testament will die Liebe von der Sexualität abtrennen, Agape steht gegen Eros. Diese Abspaltung hat im Text der Offenbarung zur Konsequenz, dass die von der Liebe abgelöste Sexualität dem Bösen zugerechnet wird und mit ihm am Ende der Zeiten gerichtet werden soll. Für die Lüsternen gelten dort die Gebote der Nächsten- und Feindesliebe nicht mehr, sie sollen grausam bestraft werden.

Der "Heiligen Stadt Jerusalem", die die reine Liebe beherbergt, wird eine andere Stadt, die "Große Hure Babylon" entgegengesetzt "die große Hure, die an vielen Gewässern sitzt. Denn mit ihr haben die Könige der Erde Unzucht getrieben und vom Wein ihrer Hurerei wurden die Bewohner der Erde trunken." (Offenbarung 17, 23)

Die Hure Babylon repräsentiert historisch betrachtet für die frühen Christen das Römische Reich. Aber es ist kein Zufall, dass ihre Verderbtheit mit einer verwerflichen weiblichen Sexualität verknüpft wird. Mit der Sexualfeindlichkeit einer patriarchalisch geprägten Religion geht die Frauenfeindlichkeit einher. Die Frauen werden gehasst und verachtet, weil sie beim Mann die böse, verführerische Sexualität provozieren. Mit der verführerischen Eva ist die Sünde in die Welt gekommen, die Frauen, deren prekärer sinnlicher Verführungskraft die Männer zu verfallen drohen, müssen männlicher Macht unterworfen werden, um die Gefahr, die von ihnen ausgeht, zu bannen.

Dass diese dokumentierten, geforderte(n) Sinn-, Körper-, Sexual- und Frauenfeindlichkeit(en) der Christen mit Grundrechten oder schlichter mit der "Lebendigkeit" der Menschen nicht in "Einklang" zu bringen sind, bedarf eigentlich keines weiteren Kommentars.

 

Undefiniert verboten

Es  gibt weder eine klare rechtsverbindliche Definition von Pornografie, noch gibt es eine allgemeingültige Definition. In der deutschen Rechtsprechung wird mit folgender Umschreibung gerne «gemutmaßt»: …“Danach handelt es sich bei Pornografie um „grobe“ Darstellungen des Sexuellen, die in einer den Sexualtrieb aufstachelnden Weise den Menschen zum bloßen, auswechselbaren Objekt geschlechtlicher Begierde degradieren. Diese Darstellungen bleiben ohne Sinnzusammenhang mit anderen Lebensäußerungen und nehmen spurenhafte gedankliche Inhalte lediglich zum Vorwand für provozierende Sexualität.“

Rational logisch und vermutlich ebenso juristisch ergibt sich aus dieser Formulierung eine sehr „unschöne“ Grauzone. Die Begriffe «grob» und «provozierend» mögen in der freien Literatur eine individuelle Bedeutung besitzen und im Rahmen eines literarischen Handlungsstranges eine gewisse Plausibilität verkörpern, die postulierte reproduzierbar-juristische Interpretation von «grob» und «provozierend» ist mit Verlaub gesetzesunwürdig, „sittenwidrig“ oder schlichter subjektiv und unbrauchbar. Aber es kommt noch schlimmer, sofern der Leser, unabhängig von der Bewertung des Sachverhaltes, eine gewisse Konsequenz der staatlichen [Triebabbildungs-] Ankläger erwartet, denn die so genannte Kunstfreiheit ist ein Grundrecht und in Deutschland geschützt durch Artikel 5 Absatz 3 des Grundgesetzes.

Die Kunstfreiheit enthält u.a. das Verbot, auf Methoden, Inhalte und Tendenzen der künstlerischen Tätigkeiten einzuwirken, insbesondere den künstlerischen Gestaltungsraum einzuengen oder allgemein verbindliche Regelungen für diesen Schaffungsprozess vorzuschreiben. Ein Kennzeichen der Kunstfreiheit ist, dass sie verfassungsrechtlich vorbehaltlos gewährleistet ist. Im Gegensatz zu anderen Grundrechten sieht das Grundgesetz für sie keinen ausdrücklichen Gesetzesvorbehalt vor. Des Weiteren ist Kunst als Kommunikationsgrundrecht auf Öffentlichkeit bezogen und auf die Wahrnehmung in der Öffentlichkeit angewiesen. Damit liegt auch die Werbung für ein Kunstwerk im „Schutzbereich der Kunstfreiheit“, wobei diese nicht selbst künstlerischen Ansprüchen genügen muss, die Kunstfreiheit kann hier unabhängig von der Gestaltung wahrgenommen werden.

Gesetzliche Theorie und Realität der Kunstfreiheit

Im Klartext und ganz praktisch: Jeder der ein Künstler sein möchte, losgelöst von seiner Herkunft, Vorbildung und Ausrichtung, ist vorbehaltlos ein Künstler mit allen Schutzansprüchen der mittels Grundgesetz proklamierten Kunstfreiheit. Auch explizit erotische Inhalte des Künstlers, als Bestandteil seiner Kunst, haben einen Anspruch auf Kommunikation und Öffentlichkeit, auch im Internet. Telemediengesetz und Jugendschutz sind untergeordnet und dürfen keinesfalls als Zensurinstrument angewendet werden. Dieser Sachverhalt scheint kaum Jemandem bewusst zu sein und wird auch rechtlich ignoriert..

Weitere fragmentarische formal-juristische Ausführungen zur Kunstfreiheit:

Kunst lebt in erster Linie aus der formalen Gestaltung, die sich in einem schöpferischen Akt vollzieht (zutreffend AG Darmstadt JZ 1971, 140 - Roman »Barbara«), gleichgültig worauf sie sich bezieht und welchen Inhalt sie hat. Auch die realistische Darstellung von Dingen oder Vorgängen in Umsetzung der bloßen Sinneserfahrung ohne einen spezifisch geistigen oder seelischen Bezug kann ein Anliegen künstlerischer Betätigung sein (vgl. Stein JZ 1959, 722). Das gilt nicht nur für den Bereich der bildenden Kunst und des Kunsthandwerks, sondern auch für literarische Erzeugnisse (AG Darmstadt aaO). Erforderlich ist lediglich eine irgendwie geartete schöpferische Formgestaltung. Von der Erkenntnis ausgehend, dass es unmöglich ist, Kunst generell zu definieren (BVerfGE 67, 213, 224f. Anachronistischer Zug; 75, 369, 377), erkennt das Bundesverfassungsgericht nicht nur an, dass es keinen gefestigten Kunstbegriff gibt, sondern bekennt sich auch zu der Auffassung, dass nur ein weiter Kunstbegriff zu angemessenen Lösungen führe (BVerfGE 67, 213, 224 ff.). Auf diesem Hintergrund bewegt sich die Rechtsprechung des Bundesverfassungsgerichts zunehmend auf einen offenen, bloß »formalen« Kunstbegriff zu. Danach kann ein Kunstwerk bereits dann vorliegen, wenn die Gattungsanforderungen eines bestimmten Werktyps der Kunst (z.B. Gedicht, Erzählung, Roman, Gemälde, Collage usw.) erfüllt sind (BVerfGE 67, 213, 226 f.; BVerfG JZ 1990, 635 - Bundesflagge; BVerfG JZ 1990, 638 - Nationalhymne).

Handelt es sich aber schon um Kunst, wenn sich jemand einer Mediensprache bedient, die den herkömmlichen Gestaltungsformen der Kunst entspricht, dann ist für eine begriffliche Exklusivität von Kunst und Pornographie von vornherein kein Raum, da es allein auf die formgebundene Äußerung, nicht aber auf die Übermittlung irgendwelcher gedanklicher Inhalte ankommt. Es liegt auf der Hand, dass je weiter und offener der Kunstbegriff gefasst wird, desto weniger für ein Ausschließlichkeitsverhältnis zwischen Kunst und Pornographie Raum ist (so zutreffend Maiwald in Kunst und Recht, Schriften der Deutschen Richterakademie (1985) Bd. 2 S. 67, 76; Meyer-Cording JZ 1976, 737, 744)

Von daher gesehen können Kunstcharakter unter Umständen auch Darstellungen besitzen, die unter Hintansetzung sonstiger menschlicher Bezüge sexuelle Vorgänge in grob aufdringlicher, anreißerischer Weise in den Vordergrund rücken und ausschließlich oder überwiegend auf die Erregung sexueller Reize abzielen (so der in der Rechtsprechung weiter entwickelte Pornographiebegriff des Sonderausschusses für die Strafrechtsreform unter Vermeidung der dort verwendeten normativen Komponente, BT-Drucks. VI/3521 S. 60; vgl. BayObLGSt 1974, 175, 181; OLG Schleswig SchlHA 1976, 168; OLG Koblenz NJW 1979, 1467). Sonst würden ganze Bereiche der indischen und chinesisch-japanischen Kunst, die ausschließlich der sexuellen Stimulierung in Vorbereitung sexueller Annäherung dienen (sog. Kopfkissen- oder Hochzeitsbücher), unberechtigterweise aus dem Kunstbereich herausfallen. Auch die aufdringliche, verzerrende und unrealistische Darstellung geschlechtlicher Vorgänge, die einen Anhalt für die Bewertung als Pornographie bilden (BGHSt 23, 40, 44; BGH UFiTA 1980, 208; BGH StV 1981, 338; OLG Düsseldorf NStE Nr. 5 zu § 184 StGB), braucht der Qualifizierung als Kunst nicht notwendig entgegenzustehen, da gerade die in der Übersteigerung und Verzerrung bestehende unrealistische Darstellung ein Mittel künstlerischer Gestaltung sein kann, was insbesondere bei der Satire und Karikatur in Wort oder Bild der Fall ist (BVerfGE 75, 369; BVerfG JZ 1990, 635 und NStZ 1990, 333).

Gemäß obigen Ausführungen sollte eigentlich der Begriff «Pornografie» für einen Künstler und seine Kunst keine Bedeutung haben. Nun, die Realität sieht anders aus. Welches Individuum, welcher Künstler kann es sich menschlich und materiell leisten im Zweifelsfall sein Grundrecht mühevoll und langwierig vor Gerichten auszutragen? Mögliche Probleme ergeben sich durch die Unfähigkeit und Hierarchie des (deutschen) Rechtssystems. Uninformierte, «kunstfremde» Polizisten, Staatsanwälte und [Amtsgerichts-]Richter lösen im Einzelfall erste Ermittlungen, Hausdurchsuchungen, Verhaftungen, Ächtungen, Strafverfahren und Verurteilungen aus, die möglicherweise erst nach vielen Jahren vor „ordentlichen“, informierten höheren richterlichen Instanzen als falsch beurteilt werden, sofern der betroffene Künstler die Kraft, das Geld und die Ausdauer besitzt zu kämpfen. Denn das Grundgesetz und die angesiedelte Kunstfreiheit „dominieren“ ausnahmslos fragwürdige Konzepte wie «Pornografie» oder «Jugendschutz».

Explizite Erotik basiert idealisiert auf authentischen Gedanken und Verhalten darstellender Menschen. Im Bereich der anerkannten Kunst und Literatur existiert unterschiedlichste explizite Erotik [SL]. Moralische Werte, konditionierte Meinungen kontra Erotik werden durch den künstlerischen Anspruch und Eindruck (theoretisch formal rechtlich, real willkürlich) eliminiert. Ob beispielsweise Pedro Juan Gutierrez in seinen Büchern Tiere und Hohlräume in Bäumen von Kubanern ficken läßt, oder feministische Filmemacherinnen erst Frauen vergewaltigen lassen, die dann wiederum erst gezielt Männer demütigen, foltern, töten, und später wahllos Frauen und Männer in sexualisierten Handlungen abschlachten lassen (Film Baise-Moi), ist gleichgültig. Ob die sexuellen Geschichten des Künstlers Fiktion sind, oder wahre Begebenheiten abbilden, ist ebenfalls ohne Bedeutung. Sex und Gewalt, Sex mit Kindern, eigentlich jedes Tabu wird gebrochen.

Dass Sex und Gewalt und - gemäß der Volksmeinung- sexuelle Perversionen auch in deutschen Kinoproduktionen wiederholt vorkommen, dokumentiert die Attraktivität in diesen Grenzbereichen zu agieren. Beispielsweise kommt in dem Film AGNES UND SEINE BRÜDER  von Oskar Roehler so ziemlich alles vor. Der Grünenpolitiker, der in einem Telefonat mit Joschka Fischer auf ein weißes Blatt Papier mitten ins Wohnzimmer scheißt, dessen sexsüchtiger  Bruder jungen Frauen auf die Damentoilette folgt, und dort in einer Nachbarkabine durch ein Guckloch scheißenden Frauen zuschaut und sich dabei befriedigt, der Selbsthilfekreis für Sexsüchtige, die gestehen dass sie ihre Hündin ficken, da sie keine Frau bekommen.

Der Sohn des Politikers der ein erotisches Verhältnis zu seiner Mutter aufbaut, die transsexuelle Agnes, die möglicherweise von ihrem Vater als Kind mißbraucht wurde, der Bruder der letztendlich den Vater tötet um dann in einer Pornoproduktion in einem zweifelhaften Happy End die Frau seines Lebens kennenlernt und mit ihr flüchtet. Roehler so scheint es, läßt kein Tabu aus.

Ein  anderer Roehler Film, ELEMENTARTEILCHEN, ist ein lieblos aufgeblähtes Beziehungsdrama, mit viel Längen, Langeweile und natürlich mit Sex. Der Fokus liegt hier auf dem männlichen Sextrieb neurotischer Normalos. Der Hauptdarsteller Moritz Bleibtreu stellt witziger Weise in dem Film die Frage „Wann er endlich aufhören kann zu onanieren?“ Ich denke er sollte sich einen neuen Regisseur suchen, um der Onanie endlich ein Ende zu machen. Oskar Roehler ist hoffnungslos von der Idee besessen, depressiv analfixiert ficken zu lassen. Auch ELEMENTARTEILCHEN suggeriert ein obsessiv sexistisches  trostloses Erwachsensein ohne Ausweg, wenn nötig bis zum Tod. 

Der deutsche Film ANTIKÖRPER von George Lucas erzählt die Geschichte eines Serienkillers, der bevorzugt kleine Jungen sexuell mißbraucht, foltert und tötet.

Eins haben alle gegenwärtigen Kinoproduktionen die Erotik zeigen gemeinsam, dass menschliche Verlangen nach Sex wird als triebhafter, unkontrollierter Reizzustand dargestellt, der für die Mitmenschen nichts Gutes zu bedeuten hat.

Nur wenn der Regisseur das Verlangen nach Erotik in ein schlechtes Licht rückt, nur wenn das soziale Umfeld der Akteure depressiv und hoffnungslos erscheint, wenn Sex als Waffe eingesetzt wird, darf Erotik ohne Tabus in die Kinos. Ein erfrischender Film mit expliziter Erotik scheint nicht machbar zu sein.

[SL] All das, was im Bereich von willkürlich definierter Kunst, Literatur und Film erlaubt ist, ist im Bereich der so genannten Pornografie verboten. Warum ist das so?

Explizite Erotik ist als Momentaufnahme immer auch pornografisch. Die Idee dass ein vermeintlicher Kontext und eine nicht näher definierte künstlerische Sprache, pornografische Fragmente zur erlaubten frei verfügbaren erotischen Kunst veredeln, ist beliebig und abstrakt.

 

Kinder- und Jugendschutz-Realität

Das es weder der Kirche noch der Bundesprüfstelle primär um den Schutz von Kindern  und Jugendlichen geht, wird eindrucksvoll durch deren Unterlassungen exemplarisch zu folgendem Sachverhalt deutlich.

Körper und Geist

einst Jäger und Sammler

heute «made by fastfood»

Schon kleine Kinder, die wenig oder gar nicht sprechen können, sitzen mit ihren Eltern morgens, mittags, abends, zum Frühstück, auf dem Weg zur Schule oder in den Kindergarten bei McDonalds, Burger King oder in artverwandten Etablissements und haben einen Pommes zwischen ihren Milchzähnen und saugen an «Shakes». Die auf Kinder gerichtete massive Werbung der Fastfood-Ketten ist ein direkter körperlicher Angriff auf die Jüngsten und Willensschwächsten unter uns. Demokratisch und legal werden kleine Fressmaschinen herangezüchtet, die man schon in jüngsten Jahren ihrer körperlichen Natürlichkeit beraubt.

Was sind das für Eltern, die diese physische Gewalt gegen ihre Kinder begünstigen oder gar auslösen? Nicht selten sind die Erziehungsberechtigten selbst unsportlich und übergewichtig. Wenn man sich den immensen körperlichen und letztendlich seelischen Schaden der Kinder vergegenwärtigt, der sich früher oder später übergewichtsbedingt einstellen wird, dann muss man sich schon fragen, ob hier nicht ein Kinder- und Jugendschutz zwingend wäre. Nun, die moderne Demokratie macht dies unmöglich. Jeder hat das Recht soviel zu fressen, wie ihm beliebt. Jeder hat das Recht sich so wenig zu bewegen, wie es ihm gefällt. Kinder haben keine Chance auf körperliche Ästhetik, noch nicht einmal auf ein halbwegs gesundes Dasein, wenn ihre Eltern nicht als Vorbilder agieren. Die hausgemachte [Fress-]Gewalt gegen Schutzbefohlene ist legal.

Was wird aus den verfetteten Kindern von heute? Was bedeuten Autoerotik und Körperlichkeit für «Dicke» und «Superdicke»? Was schaut sich der übergewichtige, erschlaffte Mensch gerne an? Mit wem hätte er gerne Sex? "Wühlt" und sucht er/sie bereitwillig und "leidenschaftlich" unter Fettschürzen nach primären Geschlechtsorganen oder wünscht sich die Generation «Fastfood» doch lieber Jäger und Sammler mit Knackarsch und Taille?

 

 

Sein und Werden

Inwieweit sich die aktuelle körperliche Veränderung der Menschheit auf die eigene Erotik und den Konsum von «Fremderotik» auswirken wird, lässt sich nur schwer einschätzen. Das der Mensch von Natur aus, so wie alle Lebewesen, nur das Nötigste tut, um elementare Ziele zu erreichen, reicht aufgrund seiner selbst geschaffenen körpereinsatzfremden Lebensbedingungen nicht mehr aus, um einigermaßen „gesund“ zu sein. Der Urmensch war gezwungenermaßen körperlich sehr aktiv. Jagen und Sammeln war kein Freizeitsport sondern fester Bestandteil der Lebensgrundlage. Die geschlechterspezifischen körperlichen Attribute, die sich evolutionär über einen sehr großen Zeitraum entwickelt haben, bilden die erotische Basis der wechselseitigen Attraktivität. Dieses Erscheinungsbild "frisst" sich seit wenigen Jahrzehnten sozusagen auf. Funktionale Körperlichkeit wird zunehmend „demontiert“. 

Die weltweite Verfettung der Menschheit hat im 21.Jahrhundert einen Höhepunkt erreicht, so wie es aussieht, werden weitere folgen. Es entstehen neue Körpertypen, die im Extrem geschlechterspezifische Unterschiede verschwinden lassen. Der neue Mensch-Typ «made by fastfood» setzt keine bekannten erotischen körperlichen Signale. "Schwanz, Arsch, Titten", Taille, Muskeln, soweit noch vorhanden, verschwinden in bzw. unter Fettschichten. Es gibt zunehmend «Körpertypen», die „neugigantisch“ fett sind. Die gesellschaftliche Akzeptanz für diese Form der «Selbstverstümmelung» nimmt stetig zu.

 

Kirchliche Ausbeutung statt Jugendschutz

zur Kenntnisnahme und Selbstanalyse

Schläge im Namen des Herrn

von Peter Wensierski

Ihr Schicksal ist kaum bekannt: Bis in die siebziger Jahre hinein wurden mehr als eine halbe Million Kinder sowohl in kirchlichen wie staatlichen Heimen Westdeutschlands oft seelisch und körperlich schwer mißhandelt und als billige Arbeitskräfte ausgebeutet. Viele leiden noch heute unter dem Erlebten, verschweigen diesen Teil ihres Lebens aber aus Scham - selbst gegenüber Angehörigen. Manchmal genügte den Ämtern der denunziatorische Hinweis der Nachbarn auf angeblich unsittlichen Lebenswandel, um junge Menschen für Jahre in Heimen verschwinden zu lassen. In diesen Institutionen regierten Erzieherinnen und Erzieher, die oft einem Orden angehörten und als Verfechter christlicher Werte auftraten, mit aller Härte. Die "Heimkampagne", ausgelöst von Andreas Baader und Ulrike Meinhof, und die Proteste der 68er brachten einen Wandel. Die Erlebnisberichte in diesem Buch enthüllen das vielleicht größte Unrecht, das jungen Menschen in der Bundesrepublik angetan wurde.    Deutsche Verlags-Anstalt, München 2006 ISBN 342105892X

 

 

Wünschenswertes Säugetier-Lebensmodell

Dass es nicht irgendeiner staatlichen Führung oder Religion bedarf, um Ordnung zu generieren, beweisen eindrucksvoll und nahezu gewaltfrei Zwergschimpansen. Das Bonobo-Erfolgsmodell des Zusammenlebens wird täglich gelebt. Die universelle Lösung der Bonobos ist die Beseitigung aller Gruppenkonflikte mittels Sex. Bonobos sind mit Abstand die gewaltfreiesten höher entwickelten Säugetiere. Dieses Konzept kann auf Grund der religiös motivierten basisfremden Menschen-Moral nicht auf den Menschen von heute übertragen werden. Wie ausgeprägt die Empathiefähigkeit der Bonobos entwickelt ist, verdeutlicht der Artikel Bonobos helfen auch Fremden

Konkreter: Im Gegensatz zum Menschen und im Gegensatz zu Schimpansen (siehe z.B. Schimpansenkrieg von Gombe) führen Bonobos keinen Krieg untereinander. Bonobos sind bezüglich ihres sozialen Verhaltens bei genauer(er) Sicht weder mit Schimpansen noch mit Menschen zu vergleichen. Übermäßige Aggressionen werden mit sexuellen Interaktionen im wahrsten Sinne des Wortes „entspannt“. Sexualität ist wichtiger und fester Bestandteil der Gruppe. Auch das Gewähren sexueller Kontakte untereinander im Gegenzug zur Nahrungsabgabe ist Alltag. Anders als die meisten Tiere sind Bonobos nicht nur in bestimmten Situationen, sondern bei vielen Gelegenheiten sexuell aktiv. Das scheint geradezu ein integraler Bestandteil ihrer sozialen Beziehungen zu sein – und nicht nur derer zwischen Männchen und Weibchen.

Frans B. M. de Waal (niederländischer Zoologe und Verhaltensforscher) zeigt in dem Artikel Die Bonobos und ihre weiblich bestimmte Gemeinschaft exemplarisch die fundamentalen Unterschiede im sozialen Verhalten zwischen Bonobos und dem „Rest der Säugetiere (Mensch inklusive)“ auf.

Insgesamt sollte jedoch klar erkannt werden: Leben ist egoistisch. Das ist u.a. eine wesentliche Voraussetzung für (angenehmes) Überleben.

Der postulierte natürliche, persönliche Einsatz zum Wohle Anderer ist Wunsch aber nahezu nie Wirklichkeit einer sehr romantischen Sicht der Natur. Da sieht jemand nett aussehende, bunte Vögel auf einer Wiese, die zum Wohle der Arterhaltung in der Natur rumpicken. Die Wahrheit sieht etwas anders aus. Die netten Vögel fressen Frösche, Insekten und Würmer bei lebendigem Leib. Fressen und gefressen werden auf der Mörderwiese.

 

Zur Kenntnisnahme und Selbstanalyse

..."Ein funktionierender Zellhaufen ist kein Mensch. Ein Neugeborenes das ausgesetzt und von einem Apparat oder Tier ernährt wird, lernt nicht Sprechen und kaum Denken. Es wird sich seinem Ernährer anpassen, ihm ähnlich werden, und sollte es einmal einen Menschen treffen, wird es, wenn es nicht lieber flieht, ihn „wie eine Kuh anglotzen“. Zu sagen jedenfalls haben sie sich nichts. Der Mensch mag im Wilden einen Menschen sehen, der Wilde im Menschen nur ein anderes Tier.

Der Mensch kommt als Möglichkeit auf die Welt und entwickelt sich erst in (der) Gesellschaft zum Menschen. Zunächst aber sind wir nur „Hardware“, deren Komponenten genetisch minimal unterschiedlich, schlimmstenfalls defekt sein können. Erst mit der Vernetzung außerhalb des Mutterleibes entsteht die Fähigkeit zum Sprechen, Rechnen, in Beziehung setzen, aber noch ist diese Fähigkeit ohne Programm. Einem Kleinkind ist es völlig gleichgültig, ob es Deutsch oder Englisch, das Zehner- oder Zwölfersystem, assoziatives oder logisches Denken lernen wird, sein Betriebssystem funktioniert für jedes Programm, vorausgesetzt, es bekommt überhaupt ein Programm vermittelt. Ohne sprachliche Anregung z. B. bleibt es stumm."...

 

Mörderischer Naturalltag

Leben ist egoistisch

Fremdnachwuchs wird getötet, um triebgesteuert schnellstmöglich eigene Nachkommen zu zeugen.

Infantizid

(von lateinischen infanticidium, „Kindestötung“; abgeleitet aus lat. infans „Kind“ und cidere „Tötung“):  Männliche Tiere, die den Nachwuchs einer Mutter töten, haben so selbst die Möglichkeit sich schneller fortzupflanzen. Männchen töten nur Jungtiere, die sie nicht selbst gezeugt haben und paaren sich danach mit den Müttern.  Diese Strategie wird bei Säugetieren und auch von einigen Vogel- und Fischarten angewendet. Werden die getöteten Nachkommen auch gefressen spricht man von Kronismus.

 

Unternehmerische Realität

Der Unternehmer spricht von „Humankapital“ welches Teil der Betriebsstruktur ist. Beobachtbare Firmentreue der „Belegschaft“ ist eine sehr einseitige Treue. Der Erhalt des Arbeitsplatzes respektive die Existenzfähigkeit des Arbeitnehmers ist in den meisten Fällen kein Kriterium für betriebliche Veränderungen. Aktuelle Profitperspektiven lassen treue Mitarbeiter schnell arbeitslos zurück.

 

Vergleichendes Fazit

Hier schließt sich der Bewertungs-Kreis. Bonobos haben auch eine Hierarchie. Bonobos sind egoistisch. Aber der Egoismus der Bonobos mündet täglich in einem Feuerwerk positiver Interaktionen. Niemand in der Bonobogruppe muß um seine Existenz fürchten. Was dem Menschen offensichtlich fehlt ist ein basisnahes Verständnis für wichtige soziale Aspekte. Die sich aus religiösen Männerfantasien entwickelte, von dem restlichen Leben abgespaltene Sexualität, ist eine wesentliche Fehlentwicklung der Menschheit. Es sieht nicht so aus, als ob sich da in absehbarer Zeit etwas ändert.

 

 

 

...Peter Lau (Redakteur) interviewte mich 2002 in Berlin für das Wirtschaftsmagazin brandeins (Ausgabe Dez. 2002/Jan.2003) und schrieb u.a. in dem Print-Artikel Nach der Revolution – Warum gibt es keine bessere Pornografie? über mich:

…„Der 39-jährige“ führt mich durch sein Unternehmen inklusive eines adrett wirkenden Dominastudio und spricht dabei über die Bildungsmisere. Die unwissenden, desinteressierten Jugendlichen erschüttern ihn richtig. Das erzählt er im Tonfall eines Sozialarbeiters einer Kirchengemeinde im Hunsrück, sanft und verständnisvoll, und bald ist klar: Der Mensch ist ein echter Softie.“…

 

Meine (kritischen) Ansichten zur (gewerblichen) Pornografie durfte ich unzensiert in dem Buch Alles über Porno (Seite 275 – 295) aus dem Schwarzkopf & Schwarzkopf-Verlag 2009 kundtun...

 

 

 

Impressionen meines AlexD Treibens

 

 

Beauty Christina  Berlin        c-print     adf      37ndf ]

 

 

 

                                                                         

ein Klick auf

führt zu ergänzenden Kunst-Erotik-Gesellschaftsbetrachtungen

 

_______________________________________________________

 

 

Die Bedeutung des Protonenradius für die Ausarbeitung der EKT

Anfang 2012 stieß ich durch Zufall auf das Ergebnis der Protonenradiusmessung am myonischen Wasserstoff aus dem Juli 2010 am Schweizer Paul Scherrer Institut. Mit dem Ergebnis: Jetzt will ich es wissen. Ich hatte bereits 1986 während meiner Studienzeit die Grundidee der EKT entwickelt. Damals galt jedoch noch der Protonenradiuswert von ~ 0,88 fm. Somit schien meine theoretische Berechnung falsch zu sein.

Die zwar um ein Viertel Jahrhundert verspätete Kenntnis, dass die sensationell, formal einfache Voraussage des Protonenradius im Bild der Elementarkörpertheorie bestätigt wurde, erzeugt(e) große Freude und war der Auftakt zu intensiver Elementarkörper-Denkmodell basierender Forschung. Mein Kontaktversuch mit Dr. Randolf Pohl vom Max-Planck-Institut für Quantenoptik, einem der benannten Physiker der Protonenradiusmessung, war ergebnislos. Das Telefonat ergab, dass sich Herr Pohl kategorisch nur für die in einschlägigen Magazinen „ordentlich“ veröffentlichten „scientific papers“ interessiert.

Tatsache ist: Anfang 2012 "klebten" die Berechnungen noch am Protonenradius. Mit Entwicklungspausen entfaltete sich in den Folgejahren ein konsistentes Denkmodell welches, phänomenologisch begründet, korrespondierend Photon und Raum-Masse-gekoppelte Materie sowie Mikro- und Makro-Kosmos vereint.

"out of the box"

Was mich seit Wiedereintritt in das Erkenntnisgebäude der Theoretischen Grundlagenphysik, beginnend Februar 2012, zeitlich und inhaltlich extrem aufgehalten hat und nach wie vor sehr zeitraubend ist, war herauszufinden bzw. ist herauszufinden, wieso die Verkünder der Standardmodellphysik all diesen offensichtlich widersprüchlichen Konzepten folgten und folgen, die Beliebigkeit und Nichtnachweis zur "Norm" erklär(t)en. Das bedeutet(e), ich musste mich explizit mit all den Facetten der Standardmodelle, insbesondere mit den Inhalten des Standardmodells der Teilchenphysik, im Sinne der vielfältigen Einzelheiten, Ausnahmeregeln, Postulaten etc. detailliert beschäftigen. Im Ergebnis drängt sich u.a. der Verdacht auf, dass insbesondere die Protagonisten der jüngsten Generation von Theoretischen Standardmodellphysikern ausschließlich im praktizierten Formalismus verankert sind. Um jedoch die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es beträchtlicher historischer Kenntnisse. Diese gehören seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert, noch im Rahmen der herrschenden mathematischen Modelle adressiert.

 

„Am Rande bemerkt“

Lange kämpften die Physiker, die in Elektron-Proton-Streuexperimenten einen um ~ 4% größeren Protonenradius vermeintlich meßtechnisch ermittelt hatten, gegen das »Team Randolf Pohl & Co«, die wiederholt den kleineren Protonenradius am myonischen Wasserstoff und später auch am regulären Wasserstoff bestätigt gemessen hatten.

 

Es stellte sich heraus, das die »Kämpfer auf verlorenen Posten« lange Zeit ignorierten, das der Meßfehler in ihren Streuexperimenten so groß war, dass der kleinere Protonenradius-Meßwert bereits darin erhalten war.

Elementarkörpertheorie (EKT)

 

Diese kleine Versuchs-Interpretationsgeschichte ist ein Wink mit dem Zaunpfahl, wie später wiederholt aufgezeigt wird, dass einmal etablierte Versuchsinterpretationen nur ungern von den Standardmodellprotagonisten revidiert werden.[4]

_______________________________________________________

[4] Explizit bemerkt: Bringt man ältere Messungen der Elektron-Proton-Streuung konkret  ins “Spiel”, so wurden bereits 1997 Protonenradius-Werte (»dispersion fit«, 1996, … high energy part 0.832(12) fm, page 14…) „diskutiert“, die mit den spektroskopisch ermittelten Werten für myonischen und regulären Wasserstoff gut übereinstimmen. Auch bzw. bereits Robert Hofstadter ermittelte 1958(!) einen mit der Elementarkörpertheorie "verträglichen" Wert des Protonenradius, …Electron-Proton-Scattering   Hofstadter et al 1958   rp = 0,80 +/- 0,04 fm

_______________________________________________________

 

Geschichtliches zum Protonenmasse inhärenten Protonenradius

Es gab eine (vermutlich wenig beachtete) Bemerkung von Wolfgang Finkelnburg aus dem Jahre 1947 mit der Überschrift „Über das Maß von Kernentfernungen und eine merkwürdige Beziehung zwischen den Grundkonstanten der Physik“ siehe: Finkelnburg 1947 Hinweis

 

Eine Bemerkung von Prof. Dürr über die fundamentale Natur des Protons

Was dafür spricht, dass das Proton tatsächlich fundamental ist, ist eine spezielle Koinzidenz, auf die der Physiker Hans-Peter Dürr in seinem Aufsatz  Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? 1986 aufmerksam gemacht hat. Er weist daraufhin, dass die Vorstellung einer Teilchenunterstruktur mit Erreichen einer charakteristischen Schranke versagt.

Diese charakteristische Schranke ergibt sich aus dem Verhältnis zwischen dem Planck’schen Wirkungsquantum und der Lichtgeschwindigkeit. Die sich daraus ergebende Größe hat die Dimension einer Masse mal einer Länge. Dürr zufolge versagt für Systeme, für die das Produkt aus ihrer Masse m und ihrer Größe R diese Maßzahl unterschreitet, die Vorstellung einer Teilchenstruktur: mR  << h/c » 10-37 g cm.

Wie Dürr betont, ist dies zum ersten Mal der Fall bei einem Proton, denn mit dem Proton ist gerade diese Grenze erreicht: R » 10-13 cm, m = 1.7 x 10-24g, woraus sich für mR » 10-37 g cm ergibt.

Dürr nimmt diese auffällige Koinzidenz zum Anlass, das Quark-Modell zu kritisieren. Es kommt ihm, wie er betont, reichlich merkwürdig vor, dass sich  die Natur,  um unserem Teilchenbild entgegenzukommen, auf ihren tieferen Ebenen in eine so spezielle Dynamik wie die Quantenchromodynamik flüchtet. Es erscheint ihm viel überzeugender, dass die Quarkstruktur wie auch eine Subquarkstruktur nur die Funktion einer effektiven Beschreibung im Sinne der Quasiteilchensprache der Mehrkörperphysik hat.

Quelle: DürrHans-Peter, Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? in: Selbstorganisation – Die Entstehung von Ordnung in Natur und Gesellschaft, (hrsg. Andreas Dress, Hubert Hendrichs und Günter Küppers, München 1986, S. 15 – 34)

Hans-Peter Dürr (1929 - 2014) war u.a. Mitarbeiter von Werner Heisenberg und Direktor des Max Planck Institutes für Physik bis1997.

Weiterführend

Michaele Suisse und Peter Cameron schreiben in Quantum Interpretation of the Proton Anomalous Magnetic Moment interessanterweise folgendes …

Die Rolle des anomalen Moments in der geometrischen Clifford-Algebra der topologischen Massenerzeugung des Protons legt nahe, dass die Anomalie keine intrinsische Eigenschaft des Protons im freien Raum ist, sondern vielmehr ein topologischer Effekt der Anwendung des elektromagnetischen Vorspannungsfeldes, das zur Definition der durch die Messung des magnetischen Moments ermittelten Eigenzustände erforderlich ist.“ [Februar 2017]

Das ist extrem bemerkenswert. Denn, wie noch ausführlich dargelegt wird, kollabiert im Rahmen der Elementarkörpertheorie der Standardmodellansatz Quarks basierender Protonen gemäß dem Prinzip der Parsimonie. Das anomale magnetische Moment des Protons läßt sich Masse-Radius gekoppelt einfachst berechnen.

Der im Vergleich zu der Elementarkörpertheorie grundverschiedene Ansatz von Michaele Suisse und Peter Cameron kommt (also auch) zu dem Ergebnis, dass das magnetische Moment des Protons nicht intrinsisch ist. 

The role of the anomalous moment in the geometric Clifford algebra of proton topological mass generation suggests that the anomaly is not an intrinsic property of the free space proton, but rather a topological effect of applying the electromagnetic bias field required to define the eigenstates probed by the magnetic moment measurement.”  

 

 

Oder wie wäre es exemplarisch mit der Berechnung der Grundzustandsenergie des Wasserstoffatoms,...

 

Elementarkörpertheorie basierend sind alle Ladungswechselwirkungen auf Masse-Raum-Kopplungen zurückzuführen. Wie gezeigt wird, kommen elektrische Ladungen innerhalb der Elementarkörpertheorie nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor.

Die Elementarkörpertheorie bringt den Standardmodellen einen weiteren Knock-out

im Sinne des Prinzips der Parsimonie mittels der

Berechnung der Grundzustandsenergie des Wasserstoffatoms

 

                 

 

Die obige Berechnung ist nicht nur die einfachste sondern auch die genaueste phänomenologisch begründete theoretische Berechnung der Grundzustandsenergie des Wasserstoffatoms (weltweit) verglichen mit dem experimentellen Wert (ERy(exp)).

An diesem Beispiel lassen sich auch exemplarisch omnipräsente Indoktrinationen respektive Falschdarstellungen der Systemphysik aufzeigen.

Auf der Webseite chemie.de findet sich für den Begriff »Rydberg-Energie« Folgendes:

Die Rydberg-Energie ER (nach Johannes Rydberg) ist die Bindungsenergie des 1s Elektrons (d. h. des Grundzustandes) des Wasserstoffatoms.

 

Das ist offensichtlich falsch. Da das mit maßgebende Proton nicht in der Gleichung vorkommt, ohne hier auf den phänomenologisch sinnfreien semiklassischen Werdegang dieser Gleichungsermittlung einzugehen.

Aber auch die Einführung des Hamiltonoperators im Rahmen der Quantenmechanik oder weiterführend eine quantenelektrodynamische Betrachtung führt zu keinem brauchbaren Ergebnis.

Hintergrund

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet, da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen[8]. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

 

Reduzierte Masse

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit:

Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper, hier des Protons mit einem Elektron (Wasserstoffatom) jedoch um nichts Fiktives. Um überhaupt phänomenologisch verstehen zu können, das sich die Einführung des Terms mred = mA / (1 + mA/mB) begründen lässt, existiert eine solche Anschauung ausschließlich im Rahmen der Elementarkörper-Wechselwirkungen.

Im Bild der Elementarkörper sieht die QM-postuliert himmelsmechanische Verschiebung im Mikrokosmos, exemplarisch zwischen Proton und Elektron, phänomenologisch ganz anders aus. Die reduzierte Elektronenmasse, die in die Berechnung der Grundzustands-Energie und exemplarisch in die Berechnung aller möglichen Energie-Niveaus des Wasserstoff-Atoms "Einzug hält" ergibt sich vollkommen symmetrisch aus einer einfachen Überlagerung zweier Elementarkörper A und B mit den Massen mA und mB und den inhärent Masse gekoppelten Radien rA und rB. Mittels Masse-Radius-Konstanten-Gleichung [F1] gibt es hier keinen Interpretationsspielraum. Das Ergebnis gilt für jegliche Ladungsträgerkonstellationen (...A-B, Proton-Elektron, Proton-Myon,...). Im Gegensatz zu einer Bahnbewegung, die nur im statistischen Mittel als symmetrisch verstanden werden kann, da sich die bewegenden Massen stets zeitabhängig lokal manifestieren, ist die Elementarkörperüberlagerung bewegungslos zeitstabil symmetrisch. Dies wird später explizit erörtert und geometrisch anschaulich hergeleitet.

 

Auch das Gleichsetzen einer elektrischen Zentripetalkraft mit einer masse-abhängigen Zentrifugalkraft im semiklassischen Bild ist zwar mathematisch kein Problem, aber im Rahmen der hiesigen Physik phänomenologisch unbegründet. Des Weiteren: Unabhängig von den Massen der Ladungsträger „erleiden“ zwei betragsmäßig gleiche Ladungen keine Massen-Verschiebung, da die gravitative Wechselwirkung (exemplarisch Proton-Elektron) um ~ 40 Zehnerpotenzen kleiner ist. Das verwendete suggestive Modell ist offensichtlich phänomenologisch unbegründet. Die Frage, wie wechselwirkt eine Masse mit einer Ladung, bleibt im Denkmodell der QM respektive im Standardmodell der Elementarteilchenphysik unbeantwortet. Nun darauf zu verweisen, dass im Rahmen der QM respektive Quantenfeldtheorien diskrete Objekte, die eine Masse und eine elektrische Ladung besitzen, mathematisch als Wellenfunktionen beschrieben werden können, löst nicht das Problem der fehlenden Phänomenologie. Der Term der reduzierten Masse bleibt als notwendiges Berechnungsobjekt für Energie(eigen)werte der QM und QED fern. Diesen Term stillschweigend in den Hamilton-Operator “unterzubringen” ist praktisch nachvollziehbar aber anschaulich sowie theoretisch vollkommen unbegründet, da es die dazu notwendigen diskreten Theorieobjekte gemäß der QM/QFT-Postulate  in der QM/QFT gar nicht gibt.

 

 

Dyson Gleichung - Greensche Funktionen - Bethe Salpeter Gleichung
Quantenmechanik und Albert Einstein

[8] Im Hinblick auf einen Erkenntnisgewinn in diesem Zusammenhang wird ein rational orientierter Betrachter die gelebte Egozentrik der Quantenfeldtheoretiker je nach Emotionszustand vermutlich entweder mit Belustigung oder eher tief traurig zur Kenntnis nehmen.

 Die »Bethe Salpeter Gleichung« beschreibt Bindungszustände eines quantenfeldtheoretischen Zwei-Körper-Systems (oder auch nicht, {hüstel}) [9].

Der Euphemismus der »Bethe Salpeter Gleichung« ist (noch) als sehr moderat zu bewerten, wenn man sich zum Vergleich postulierte Hyperfeinkorrekturen zu den Energieniveaus anschaut, siehe exemplarisch Higher order corrections to spin-spin scalar interactions in HD+ and H2+ , 2020 veröffentlicht und Nuclear Structure to the Hyperfine Structure in Hydrogen , 1959 veröffentlicht.

In allen Fällen wird so getan, als ob eine Berechnungs-Grundlage existiert, die sich aus der QM und weiterführend aus der QED ableiten lässt. Doch diese Grundlage fehlt: Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Jedwede feine oder hyperfeine (weitere) mathematische Modellierung ist somit ohne (insbesondere realphysikalische) Basis. Hier wird auch exemplarisch deutlich, das der Rückzug respektive Umzug von einer phänomenologisch basierenden formal-analytischen Betrachtung zu einer abstrakten mathematischen (die heutzutage iterativ per Clustercomputeranlagen ergebnisorientierten) Betrachtung mit Vor-Kenntnis der Versuchsergebniswerte extrem verführerisch ist. Es wird solange mathematisch modelliert, heutzutage meist iterativ, bis das gewünschte Ergebnis irgendwie errechnet wurde. Obwohl diese (selbstbe)trügerische Vorgehensweise offensichtlich ist, gibt es im Lager der Quantenfeldtheoretiker keine Einsicht. Was sollen sie auch anders machen? Es gibt schlicht keine Alternativen. Das Problem als solches war früh bekannt...

Albert Einstein (1879 - 1955) schrieb u.a. zur Quantenmechanik...

...[7] "die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."...

[7A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

"Einstein: Die Ikone der modernen Physik

Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde."

[9] Die »Bethe Salpeter Gleichung« ist ähnlich aussagekräftig wie der Virialsatz. Dieser basiert u.a. auf der Idee von Kraftfeld- respektive Energie-Feld erfüllten Räumen, die ein unendlich großes Energiereservoir darstellen. Des Weiteren werden "virialsatzbedingt" nur "elastische" Wechselwirkungen behandelt, das heißt, die Abstände zwischen den wechselwirkenden "Entitäten" sind größer als die Entitäten selbst. Trotz bzw. wegen diverser Randbedingungen ist es insgesamt "verwunderlich", dass der Virialsatz im Sinne einer Energieerhaltung nicht (weiter) hinterfragt wurde und nach wie vor nicht hinterfragt wird. Das Virialsatz-Theorem liefert keine "eigenen" Lösungen, sondern analysiert und kategorisiert über einen freien Parameter verschiedene Wechselwirkungssysteme. Die Aussage, "das ist so gemäß Virialsatz", ist sinnleer, weil der Virialsatz nicht die Lösung des Systems liefert(e), sondern das System analytisch nach Kenntnis der Wechselwirkung mathematisch erfasst.

Bedeutet hier: So wie der Virialsatz kann auch die »Bethe Salpeter Gleichung« nur etwas beschreiben aber nichts explizit berechnen.

 

Antiteilchen und quantenmechanischer Spin

Der offensichtliche Selbstbetrug der herrschenden Physik besteht auch darin, dass eine Umkehrung der Ladung aus einem Elektron kein Antiteilchen gemäß Einstein-, Dirac- oder Klein-Gordon-Gleichung mit negativer Energie macht.

Die „Antiteilchen“ der herrschenden Physik, wie Positronen und Anti-Protonen sind somit keine Antiteilchen. Schon dieses einfache Beispiel zeigt sowohl die sprachliche als auch inhaltliche  „Definitions-Unbestimmtheit“ sprich „Verwirrung“ sprich Sinnleere innerhalb der herrschenden Physik auf. Das Elektron ist quantenfeldtheoretisch ohne Ausdehnung, somit ohne Trägheitsmoment daraus folgend realphysikalisch „eigendrehlos“. Es existieren energetische Unterschiede, die sich durch Energieniveau-Aufspaltungen manifestieren. Mit einer Eigendreh-Dynamik des Elektrons hat das nichts zu tun. Des Weiteren ist die „Extrapolation“ vom Bohrschen Magneton hin zum intrinsischen magnetischen Moment des Elektrons, wie später gezeigt wird, im Rahmen formaler „Denkmodelle“ phänomenologisch vollkommen unbegründet…

Des Weiteren zum Verständnis der damaligen Egozentrik eines Dirac, Feynman und Stückelberg: Dem so genannten »Dirac-See« folgte die »Feynman-Stückelberg-Interpretation« für "unerklärliche" negative Energiewerte der Dirac-Gleichung. Im Bild der Quantenmechanik "löste" man dieses Problem vermeintlich mit Hilfe der Heisenbergschen Unschärferelation, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen. Das negative Vorzeichen der Energie wird auf die Zeit übertragen (Feynman-Stückelberg-Interpretation). Dirac verstand unter dem Dirac-See das Vakuum als einen unendlichen "See" von Teilchen mit negativer Energie, ohne weitere freie Plätze für negative Energien (?!?). Man muß(te) wahrscheinlich Dirac, Feynman oder Stückelberg heißen, um sich solch naiven "Zauber" leisten zu können. Der Wille fehlende Anschauung durch formale Hilfskonstruktionen bzw. wilde Fantasien zu ersetzen ist überdeutlich. Mathematisch ist das kein Problem, phänomenologisch schon. 

 

Ergänzend sei darauf hingewiesen, das quantenmechanisch beim Bohrschen-Atom-Radius die Aufenthaltswahrscheinlichkeit für das Elektron maximal ist. Im Mittel befindet sich das Elektron jedoch im 1,5-fachen Abstand zum Kern. Diese Feststellung ist nicht trivial.

Was fangen wir mit dem Erwartungswert <r> an, wenn die auch in der Quantenmechanik verwendete Grundzustandsenergie des H-Atoms, nicht mit dem Erwartungswert, sondern falsch mit dem Bohrschen Atomradius korrespondiert?

Bohrsches Atommodell und Quantenmechanik

Der Grund warum das masseleichtere Elektron um das masseschwerere Proton kreisen soll(e), obwohl betragsmäßig die Ladungen gleich sind, hatte man sich vom Himmelsmechanik-Denkmodell abgeschaut, eine durchaus menschlich, wie formal nahe liegende Tat. In den Spektren beobachtete man bei genauerer Inspektion Dubletts oder Multipletts (zwei oder mehrere nahe beieinander liegende Linien). Zur Erklärung wurde ad hoc ein Eigendrehimpuls oder Spin mit der Spinquantenzahl s = ±½. eingeführt.

 

QM-Drehimpuls zur Kenntnisnahme und Selbstanalyse

Der QM-Drehimpuls hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen.

...und übrigens:

Eigenrotation und quantenmechanischer Spin

Ein statistisch in alle Raumrichtungen verteilte Rotationsachse würde auch im Mittel nicht zu einer Quantisierung (Richtungsquantelung) führen. Zur Erinnerung: Die Quantenmechanik (QM) "arbeitet" oft in Illustrationen und semantischen Ausführungen mit einer falschen Suggestion mittels des Begriffes Spin (Eigenrotation), doch der assoziierte QM-Formalismus beschreibt keine solche realphysikalische Rotation.

 

Der Grund warum das diskrete „Bohrsche“ Elektron auf einer diskreten Bahn wieder abgeschafft wurde, hat mit der Kohärenzrettung des Wellenmodells zu tun. Die „Einteilchen-Verschmierung“ des Elektrons und die spätere im Standardmodell Verarmung zum Punkt sind Realobjekt befreite mathematische Konzepte, die die Norm eines anschaulichen Denkmodells nicht erfüllen, da die experimentellen Befunde diese Annahmen nicht abbilden, auch wenn das semantisch mit der inhaltlosen Begrifflichkeit der Reduktion der Wellenfunktion „erreicht“ wird. Mit der Verarmung des Elektrons zum Masse- und Ladungspunkt verschwinden mechanisch-dynamische Größen wie das Trägheitsmoment, die Anschaulichkeit einer rotierenden Masseverteilung „um sich selbst“ (Spin) „lebt“ aber von einer räumlichen Ausdehnung. Der Spin eines Massepunktes ist denkmodell-grotesk und anschaulich sinnleer. Physikalisch-phänomenologische Aspekte wurden im Glauben an übergeordnete mathematische Formalismen gezielt einer Irrealität geopfert. Was schwingt bei der deBroglie Materiewelle ohne Medium? Schwingt die Masse des Elektrons? Schwingt die Ladung des Elektrons? Was ist Ladung? Was ist Masse?  Was ist eine stehende Materiewelle? Was ist der Spin eines Massepunktes? Was ist der Spin einer Wahrscheinlichkeitswelle? Oder, was ist der Spin des Wahrscheinlichkeitswellenquadrates, wenn diese Fragestellung mehr Spaß in Richtung Observable machen soll.  

Man sollte in diesem Zusammenhang nicht vergessen, dass die Grundlage für die QM meist reine Rechenvorschriften sind, die keinerlei Phänomenologie enthalten. Hauptquantenzahlen, n²-Abhängigkeit, strahlungslose Übergänge etc. sind nach wie vor unbegründet. Die QED löst(e) keine grundsätzlichen Probleme fehlender Anschauung. Virtuelle Photonen sind Theorieparameter, Störungstheorie, Taylorreihenentwicklungen, Feynman-Diagramme, resultierende Entwicklungskoeffizienten sind mathematische Konzepte, die zu rein iterativen Lösungsansätzen führen.

 

 

Wie erkenntnistheoretisch sinnleer heutzutage gearbeitet und argumentiert wird, offenbart folgendes Beispiel...

Berechnung der Vierschleifen-Beiträge zu Taylor-Reihen-Entwicklungskoeffizienten der Vakuumpolarisationsfunktion in perturbativer Quantenchromodynamik

führt zu ungefähr 700 Feynman-Diagrammen

Lösung eines linearen Gleichungssystems mit nicht konstanten Koeffizienten

Größenordnung: Gleichungssystem mit 25 Millionen Gleichungen

liefert Lösungen für 4 Millionen Integrale

"Ergebnis"

Reihen-Entwicklung der Vakuumpolarisation

 

Zur Erinnerung, schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

Ist die Quantenmechanik unverständlich?

Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik zwar unverständlich, irgendwie "seltsam", sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist.

Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht "seltsam". Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«.

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung entwickelt werden kann (Fourier-Reihe):

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Kopenhagener Deutung von 1927

Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

Voraussagefähigkeit der Quantenmechanik

Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der Quantenfeldtheorien (QFTn) verwendete, teils neu definierte Mathematik (Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch unbegründet. Sie ist formal(-axiomatisch) deutlich komplexer und schwieriger verständlich als die bloße Erkenntnis, dass beispielsweise Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²)) "quantisiert" sind, kommt aber über den Status einer Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik (QED) basierend von einer hervorragenden Übereinstimmung von Theorie und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme, dessen iterative Ergebnisse den Meßwerten immer wieder angepasst wurden. Die einen sagen es nicht, die anderen durchschauen es nicht.

 

 

Beispiel - Die Berechnung des magnetischen Moments des Elektrons

Die Geschichte der theoretischen Berechnung des magnetischen Moments des Elektrons gibt hier exemplarisch eine praktische Vorstellung von dem mathematischen und zeitlichen Aufwand, sowie der „Fehlerlast“ selbst der ersten Rechnungen, die im Verhältnis zu Korrekturen höherer Ordnung zu den „einfach lösbaren“ gehören. Neben dem Schwinger-Term (α/2π) beinhaltet der quadratische Korrekturterm 7 Feynman-Diagramme. Nach Richard Feynmans Geschichte1 dauerte es 2 Jahre bis zwei „unabhängige“ Physiker-Gruppen diese berechnet hatten. Es stellte sich jedoch heraus, dass diese signifikante Fehler* machten und in der Endphase ihre „unabhängigen“ Ergebnisse verglichen und anglichen. In der „wahren“ Geschichte waren die unabhängigen Gruppen eigentlich zwei Kollegen2 (Robert Karplus und Norman M. Kroll). Die Berechnung dauerte etwas weniger als ein Jahr und der Fehler* wurde erst 8 Jahre später von Andre Petermann entdeckt. 

Das bedeutet, das veröffentlichte, viel gesehene scientific paper zirkulierte für 8 Jahre und galt als theoretische Referenz, bevor es in Hinblick auf experimentelle Befunde signifikant korrigiert werden musste. 

1Calculation of the anomalous magnetic moment of the electron    Dan Styer   21 June 2012

2Veröffentlichung aus 1949/1950 von Robert Karplus and Norman M. Kroll zur (falschen) Berechnung des magnetischen Momentes, Ergebnisse siehe Seite 549  

*Nur was bedeutet hier „Fehler machen“? Bezogen auf die Genauigkeitsforderung der Theorie ist der, trotz Veröffentlichung, für 8 Jahre unbemerkte Rechenfehler für die Berechnung der „quadratischen Korrektur in Alpha“ hier ein Wink mit dem Zaunpfahl. Zum damaligen (Veröffentlichungs-)Zeitpunkt waren die theoretischen Ergebnisse in guter Übereinstimmung mit den Messwerten. In der Folgezeit wurden diverse mathematische Ergänzungen und Umformungen durchgeführt, um das theoretische Ergebnis den jeweils veränderten experimentellen Ergebnissen „anzupassen“. Das war und ist aber nur möglich, weil es sich um ein rein mathematisches Modell handelt, welches mit dem Umstand "spielt", dass denkmodell-inhärente Unendlichkeiten jedwede Addition oder Subtraktion vertragen. Wäre die (Störungs-)Theorie "präziser", gäbe es keine Möglichkeit im Hinblick auf "neue" Messwerte theoretische Anpassungen nachzuliefern.

 

Darüber hinaus sind die QCD-lastigen, nichtleptonischen Korrekturen hochgradig spekulativ, sowie die Monte-Carlo-Simulationen grundsätzlich fragwürdig, da diese nicht (analytisch) kontrollierbar sind.

Zur Kenntnisnahme: Der dritte Term α3 benötigt 72 Diagramme. Er wurde bis zum Jahre 1996 nur numerisch „errechnet“. S. Laporta und E. Remiddi gaben dann 1996 eine analytische Lösung an. Letztendlich dauerte es fast 50 Jahre nachdem Schwinger seine Berechnungen zur „zweiten Ordnung“ vorstellte, bis die 72 Feynman-Diagramme analytisch gelöst wurden. Das bedeutet aber auch, die (nur) analytische QED-Berechnung einschließlich 3.Ordnung verfügt über eine relative Standardabweichung von "nur" ~ 4,37e-8 zum Messwert, statt der ~ 2,6e-13 (CODATA 2014) zum experimentellen Wert, wie später ausführlicher beschrieben wird. Der "Rest" ist "Glaubensarbeit" in Form von jahrelangen Monte-Carlo-Integrationen auf Rechner-Clustern.

Der vierte Term α4 bedeutet 891 Diagramme mit jeweils 100.000! Termen für jedes Diagramm. Die-α5 -Entwicklung liefert 12672 Diagramme.

Ab vierter Ordnung gibt es ausschließlich numerische Verfahren (Monte-Carlo-Simulationen). Niemand ist in der Lage, die Meßergebnis orientierten, selbst-programmierten iterativen Schritte auf „Richtigkeit“ zu überprüfen. Letztendlich sind die Ergebnisse – im wahrsten Sinne des Wortes - gegenstandslos, da Störungstheorie, Renormierung, Regularisierung & Co nicht die Schwächen und Inkonsistenzen des abenteuerlich konstruierten Denkmodells beheben sondern extrem vergrößern. Die so erzielten „theoretischen Ergebnisse“ zeigen die Anatomie der SM-Selbsttäuschungsberechnungen auf. Nicht nur Laien sondern auch Physiker lassen sich jedoch – psychologisch nachvollziehbar - durch Komplexität und komplizierte Mathematik fern halten, da sich niemand die Blöße geben möchte, als Kritiker identifiziert zu werden, der auf mathematisch fachlicher Ebene nicht mithalten kann.

 

 

am Rande bemerkt...

KUNST & WISSENSCHAFT im Gleichklang

Formalisierter Expressionismus

Auffällig und bemerkenswert ist, das die Entstehung und der Ausbau der Quantenmechanik sowie die Einführung der Speziellen (SRT) und später der Allgemeinen Relativitätstheorie (ART) zeitgleich Anfang des 20.Jahrhunderts einher geht mit dem Expressionismus. Beobachtungs-These: Quantenmechanik und Relativitätstheorie waren/sind formalisierter Expressionismus. Der Expressionismus „verlor“ seine (figurative) Gestalt und wurde dann in der Folge zum abstrakten Expressionismus (siehe Werke von Jackson Pollock, Willem de Kooning und Mark Rothko, 1940er bis 1950er Jahre). Sowie die QM zur noch abstrakteren Quantenelektrodynamik (u.a. mit virtuellen Theorie-Entitäten) wurde. Der Neoexpressionismus der 1960er Jahre (siehe exemplarisch Arbeiten von Georg Baselitz) entsprechen dem Versuch der Quantenchromodynamik (QCD) nach außen hin ein „Gesicht zu geben“, wobei das der QCD zu Grunde liegende SM keinerlei sinnerfahrbare Anschauung besitzt.

Das „Gesicht“ im SM

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert.

Zum (Un-)Verständnis

Postulierte Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungs-Punkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen  im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Rational betrachtet: U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kinder(garten)sprache" kommen mit dem Theoretiker als "verwirrten", Mathematik gläubigen Menschen ins "Spiel". 

 

Kunst, Glaube und Wissenschaft

Eine Anekdote (vorweg). Vor Jahren habe ich selbständigen Bauarbeitern, die u.a. Restaurierungen von denkmalgeschützten Immobilien, durchführ(t)en, Bildmotive des abstrakten Expressionisten Mark Rothko (1903 - 1970) gezeigt, ohne jedoch einen Kunstbezug voranzustellen. Ich fragte, für was sie diese Motive hielten? Was es wohl damit auf sich hat? Siehe exemplarisch: Nr.13, Weiß, Rot auf Gelb) Ihre spontane Antwort war, es handelt sich wohl um Farbmuster, die erstellt wurden, um - gemäß der Denkmalschutzvorgaben - den richtigen Farb-Anstrich für das Gebäude zu bestimmen.

An diesem Beispiel wird deutlich, das alles was mit nicht figurativer, abstrakter, moderner Mal-Kunst zu tun hat, sich in einem großen Spektrum von banaler Bedeutung(slosigkeit) mit  - mehr oder weniger - wahrnehmbaren Alleinstellungsmerkmalen bis hin zu postuliert großartiger Schaffenskunst befindet. Es wurde wiederholt berichtet, dass Betrachter von Mark Rothkos Bildern vor Ergriffenheit weinten. In meinem Fall erotischer Abbildungen weinen sie beim Betrachten eher selten, sie "kommen" mitunter.

 

Der Schauspieler Hugh Grant hat das mal so in einem Interview formuliert:

BASIS OF ALL MODERN ART IS BULLSHIT.

Die punktuelle (nachträgliche) Kapitalisierung der sehr minimalistisch farbig gestrichenen Leinwände von Mark Rothko ist ein großartiges "Meisterwerk" kapitalistischer Dekadenz, geradezu ein Akt der Magie. "Immaterielles" wird zu etwas extrem Wertvollen stilisiert. Beispiel: Rothkos Bild Nr.10 wurde im Mai 2015 für 81,9 Millionen Dollar versteigert.

Als analytischer Wissenschaftschronist drängt sich mitunter die Frage auf, warum die unanschauliche Quantenmechanik und die noch unanschaulichere Relativitätstheorie in der Verbreitung und Anwendung, insbesondere auch populärwissenschaftlich, so erfolgreich waren und sind?

Die Antwort ist relativ einfach (zu verstehen). Es eröffnen sich im Rahmen dieser Denkmodellkonzepte große Freiräume für alle möglichen metaphysischen Fantasien, Interpretationen und Ankopplungen an bekannte religiöse Glaubensmuster. Jeder darf und kann sich als Epigone, Apologet und Wissenschaftsgläubiger mit dem Verweis, das es sich gemäß wissenschaftlichen Dekret um etwas handelt, das man es eh nicht verstehen kann, inszenieren. Die Kirche wird nicht in Frage gestellt und findet eine Schnittmenge mit der Wissenschaft. Das postuliert Göttliche darf und soll im Rahmen der Theoretischen Physik existieren. Perfekt wird diese Symbiose durch die Implementierung kosmischer Beobachtungen, die ganz im Sinne der Kirche von den Standardmodellkonstrukteuren interpretiert werden.

»Glaubens-Schaffer«

Plakativ formuliert hat die Moderne Kunst, die Anfang des 20. Jahrhunderts von Marcel Duchamp (1887 - 1968) 1915 als »ready-made« "eingeführt" wurde, (heute) die gleiche Strahlkraft wie die Quantenmechanik und die Relativitätstheorie. Es handelt sich jedoch (nur) um postulierte Beliebigkeiten, die zu etwas Großartigen annonciert wurden, ohne jedoch eine reale praktische Bedeutung zu haben. In allen drei Fällen werden keine Existenz-Begründungen beziehungsweise Erklärungen erwartet respektive gefordert, die eine verständliche Ankopplung an eine Realobjekt orientierte Wirklichkeit ermöglichen.   

Die Freude der »Glaubens-Schaffer«, deren Verkünder und Händler und der Masse(n) an Irrationalität hat Theodor Fontane (1819 - 1898) folgendermaßen aphoristisch ausgedrückt (ohne jedoch wissen zu können, wie seine frühe Beobachtung in der Folgezeit noch eskalieren wird)  ... 

"Wir stecken bereits tief in der Dekadenz, das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn."     

 

 

Erinnerungen an die Epizykeltheorie im Rahmen der Himmelsmechanik werden wach

 

Geozentrisches Weltbild

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, dass die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, dass die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

 

Am Rande bemerkt:  Begleitende Glaubens-Geschichte...

Wahrheiten, die heute keiner aus kirchlichem und politischem Kalkül benennt

 

Jeden Tag werden Zuschauer in Deutschland auf exemplarisch NTV und diversen zwangsfinanzierten, so genannten, »öffentlich rechtlichen« Fernsehkanälen mit Beiträgen zum Nationalsozialismus, Adolf Hitler und seinen Helfern "bombardiert". "Komisch" ist nur, dass die Zuschauer selten bis nie über die Seilschaften und Verquickungen der Nationalsozialisten mit dem Vatikan und der Katholischen Kirche informiert werden. 

 

Vorgeschichte

Schon der Kirchenvater Augustinus legitimierte die Gewalt zur Bekehrung von Ungläubigen. Die christlichen Kreuzfahrer wateten auf ihren Weg zum "Heiligen Land" durch ein Meer von Blut der von ihnen erschlagenen Juden und Muslime. Die katholische Inquisition hat diejenigen, die ihr als Abweichler vom rechten Glauben erschienen, auf grausame Art ermorden lassen. Viele Frauen sind der von katholischen und protestantischen Geistlichen getragenen Hexenverfolgung zum Opfer gefallen. Zwischen Protestanten und Katholiken ist es zu grausamen Religionskriegen gekommen. Der Zerstörung der indianischen Hochkulturen in Südamerika, die im Namen des Christentums organisiert wurde, sind unzählige Indios zum Opfer gefallen. Noch im 20. Jahrhundert haben sich christliche Kirchen immer wieder mit antidemokratischen reaktionären und faschistischen Mächten verbündet.

Sklaverei

Die Kirche unterstützte von Anfang an die Sklaverei und verschärfte sie in vielerlei Hinsicht. Laut dem »heiligen«. Thomas von Aquin waren Sklaven »zweckdienlich«. Ein Sklave wurde wie ein Stück Vieh betrachtet. Papst Nikolaus V. legitimierte den Sklavenhandel in seiner Bulle Divino amore communiti (Aus göttlicher Liebe zur Gemeinschaft):

Am 18.6.1452 legitimierte Papst Nikolaus V. den Sklavenhandel durch eine Bulle, indem er den portugiesischen König ermächtigte, ... »die Länder der Ungläubigen zu erobern, ihre Bewohner zu vertreiben, zu unterjochen und in die ewige Knechtschaft zu zwingen«.

Deshalb war der Sklavenhandel legal und verursachte bei den Beteiligten keinerlei Skrupel. Papst Gregor I. hielt Hunderte Sklaven auf seinen Gütern. Die Kirche behandelte Sklaven wie »Kirchengut« und dieses galt als unveräußerlich. Die Kirche schätzte den Wert von Kirchengütern manchmal nicht nach Geld, sondern nach Sklaven ein. Der »heilige« Martin von Tours (heute in vielen Kirchen abgebildet, wie er seinen Mantel teilt) hielt sich 20.000 Sklaven1.

Das erste englische Sklavenschiff hieß »Jesus«2.

1Deschner Karlheinz, Kriminalgeschichte des Christentums, Bd. 3, Reinbek 1990 S.524

2Weber Hartwig, Die Opfer des Kolumbus, 500 Jahre Gewalt und Hoffnung, Reinbek 1982

 

Die Kirche hatte im 11. Jahrhundert den Höhepunkt ihrer Macht erreicht. Möglich war dies, da nur sie die Informationstechnik dieser Zeit, das geschriebene Wort, völlig beherrschte und auch die entsprechende Struktur besaß, damit Botschaften und Autorität bis in die entferntesten Winkel Europas zu verbreiten. Christen entwickelten Foltermethoden, um Menschen, die nicht in das christliche Weltbild passten, wie Atheisten, "Ketzer", "Hexen" und Homosexuelle, grausamst zu foltern. Bereits im Jahre 380 bedrohte man Andersgläubige (Ketzer) mit Ausweisung, Verbannung und Konfiskation ihres Vermögens. Ein weiteres, stärkeres Motiv war die Gier nach materiellen Gütern. Die Inquisition war eine Raub- und Lynchjustiz im Namen des »rechten« Glaubens.

Inquisition, Frauenfolter, ...

 

Momentan ist Judenhass ein „großes“ Thema. Doch wo kommt der Judenhass ursprünglich her? Bezeichnenderweise sind diejenigen Kirchenvertreter der Katholischen und Evangelischen Kirche, die sich heute als Ankläger gegenüber Antisemiten hervortun offensichtlich nicht an der Kommunikation der dokumentierten Wirklichkeit und der Bibelaussagen interessiert, denn dann müssten sie zugeben, das deren historische und bibelursächliche Kirchenvertreter die Begründer des Antisemitismus waren.


Der biblische Judenhass

Die Bibel lässt keine Zweifel daran, was sie von ihren „religiösen Widersachern“, den Juden, hält. Paulus (Titus 1,10-11): “Denn es gibt viele Freche, unnütze Schwätzer und Verführer, besonders die aus den Juden, denen man das Maul stopfen muss, weil sie ganze Häuser verwirren und lehren.” (Diese Zeile steht im Neuen Testament, dem angeblichen Standardwerk der „Nächstenliebe“.)

Martin Luther wetterte in Schmähschriften hemmungslos gegen Juden: “Ein solch verzweifeltes, durchböstes, durchgiftetes, durchteufeltes Ding ist’s um diese Juden, so diese 1.400 Jahre unsere Plage, Pestilenz und alles Unglück gewesen sind und noch sind. Summa, wir haben rechte Teufel an ihnen.” Luther rief lange vor Hitler zum Verbrennen von Synagogen auf: “Erstens soll man ihre Synagogen oder Schulen mit Feuer anstecken und, was nicht verbrennen will, mit Erde überhäufen.” Der Philosoph Karl Jaspers urteilte nach dem Ende des Zweiten Weltkrieges über Luthers Judenschrift: “Da steht das ganze Programm der Hitler-Zeit schon!”

 

 

Christentum und Nationalsozialismus

Es war die katholische Zentrumspartei, die Hitler an die Macht brachte, die nur unter der Bedingung dem Ermächtigungsgesetz vom 23. März 1933 zustimmte, dass Hitler das Reichskonkordat mit dem Vatikan abschließt, was am 20. Juli 1933 "ordnungsgemäß" geschah.

Papst Pius XI. waren ideologische Differenzen mit dem Faschismus weniger wichtig als konkrete politische Interessen. Und die Nazis zerschlugen nicht nur die Organisationen der dem Papst verhassten sozialistischen Arbeiterbewegung, sie erfüllten auch seinen Wunsch nach einem Konkordat. Diese "feierliche Übereinkunft" in der Form eines Staatsvertrages wurde am 20.Juli 1933 unterzeichnet und sicherte der katholischen Kirche eine Reihe von Privilegien, vor allem im Bildungsbereich. Für das "Dritte Reich" bedeutete das Abkommen das Ende der außenpolitischen Isolation, ein enormer Prestigegewinn. Über die Ziele der Nationalsozialisten konnte schon damals keine Unklarheit mehr herrschen, die Gleichschaltung aller gesellschaftlichen Bereiche hatte längst begonnen, tausende von Oppositionellen waren bereits verhaftet. Durch den Abschluss des Reichskonkordates signalisierte der Vatikan seine Bereitschaft, die Abschaffung von Demokratie und Menschenrechten zu akzeptieren, sofern dies zur Verwirklichung seiner strategischen Interessen notwendig erschien. Das Objekt der päpstlichen Begierde lag in der Sowjetunion: die russisch-orthodoxe Kirche unter den Einfluß Roms zu bringen, war ein alter Wunsch der katholischen Oberhirten. Dazu musste freilich vorher das "gottlose" bolschewistische Regime beseitigt werden; darin trafen sich das katholische Interesse und die nazistischen Pläne einer Ostexpansion, die der Verhandlungsführer des Vatikans, Eugenio Pacelli, der über zehn Jahre als päpstlicher Nuntius in Deutschland gewirkt hatte, bestens kannte. Und da absehbar war, daß dies nicht so ohne weiteres mit friedlichen Mitteln zu erreichen sein würde, waren in einem geheimen Zusatzprotokoll zum Reichskonkordat Regelungen über den Status der Geistlichen für den Fall der Wiedereinführung einer allgemeinen Wehrpflicht und der Mobilmachung angefügt. Den Solidaritätserklärungen der Bischöfe folgten bald Taten; auf allen Ebenen unterstützten der höhere katholische Klerus und die Mehrzahl der katholischen Verbandsfunktionäre die nationalsozialistische Politik der Gleichschaltung. Der politische Arm der Katholizismus, die Zentrumspartei, löste sich Anfang Juli selbst auf.

Wer gegen die verbrecherische Politik der Nationalsozialisten Widerstand leistete, konnte - selbst wenn er im kirchlichen Dienst stand - hingegen nicht auf ihre Unterstützung rechnen. "Wir lehnen jede staatsfeindliche Handlung oder Haltung von Mitgliedern strengstens ab" hieß es in einer Denkschrift der Bischofskonferenz von 1935; wer "regierungsfeindliche Strömungen" in die katholischen Vereine leiten wolle, müsse "unnachsichtlich" aus diesen entfernt werden (Quelle: Karlheinz Deschner, Kirche und Faschismus, Rastatt 1993, S. 80f.). Der Generalvikar des Militärbischofs, Georg Werthmann, konkretisierte, was dies etwa für katholische Kriegsdienstverweigerer heißen sollte: "ausgemerzt und um einen Kopf kürzer gemacht"(Quelle: Karlheinz Deschner, Opus Diaboli, Reinbek 1987, S. 83.), lautete seine Forderung, der die nationalsozialistische Justiz nur allzu gerne nachkam. Als der Diözesanpriester Max Josef Metzger wegen eines (nie veröffentlichten) Manifestes für ein neues Deutschland vor dem Volksgerichtshof wegen "Vorbereitung zum Hochverrat" angeklagt wurde, setzte sich der Freiburger Erzbischof Conrad Gröber keineswegs für ihn ein, sondern teilte Roland Freisler unterwürfig sein Bedauern über Metzgers "Verbrechen" mit (Der Brief des Bischofs Gröber ist eines der erschreckendsten Dokumente dafür, wie die katholische Kirche Laien und Priester, die Widerstand gegen das nationalsozialistische Regime leisteten, im Stich ließen; in voller Länge abgedruckt in Christen und Nationalsozialisten, hrsg. von Georg Denzler und Volker Fabricius, Frankfurt 1993, S. 206).  Max Josef Metzger wurde am 14.Oktober 1943 zum Tode verurteilt und 8 Monate später hingerichtet.

Während des Krieges mahnten die Bischöfe ihre «Schäfchen» in Predigten und Hirtenbriefen immer wieder zu "treuer Pflichterfüllung" (Gemeinsamer Hirtenbrief vom 26.6.1941). Die Teilnahme am faschistischen Raubzug hieß "Pflicht vor Gott“, der Überfall auf Polen hatte den Zweck, "das Vaterland zu schirmen und unter Einsatz des Lebens einen Frieden der Freiheit und Gerechtigkeit für unser Volk zu erkämpfen". Erst später, als die militärische Niederlage des faschistischen Deutschlands immer wahrscheinlicher wurde, nahmen die Beifallsbekundungen von der Kanzel ab. Nach Kriegsende wurde dann die Geschichte umgeschrieben: aus Kollaboration mit dem Hitlerregime wurde Kirchenkampf gegen die Nazis, aus Lobeshymnen Protest, aus Bischöfen, die nie ein KZ oder Gefängnis von innen gesehen hatten, Widerstandskämpfer. "Umgeschrieben" durchaus im wörtlichen Sinne, denn die frühen Sammlungen kirchlicher Dokumente aus der Zeit des Nationalsozialismus enthalten viele hitlerfreundliche Texte nicht, dafür aber eine ganze Reihe von "leicht korrigierten" Hirtenbriefen und Denkschriften (Karlheinz Deschner, Kirche und Faschismus, Rastatt 1993, S. 122). Im April 1946 initiierte Kardinal Faulhaber eine Umfrage, die den "starken und fast ausnahmslosen Widerstand der katholischen Geistlichen" belegen sollte (Quelle: Christen und Nationalsozialisten, hrsg. von Georg Denzler und Volker Fabricius, Frankfurt 1993, S. 221). Einer solchen Organisation konnte freilich die Mitwirkung beim Aufbau der Bundesrepublik nicht verwehrt werden. Das Reichskonkordat, bis heute das einzige noch gültige außenpolitische Abkommen aus der Nazizeit, bot dafür eine gute Grundlage. Die Begründung für die reibungslose Kehrtwende von Kollaborateuren Hitlers zu aufrechten Demokraten hatte der Erzbischof von Breslau, Adolf Bertram, bereits 1933 gegeben: "Wiederum hat sich gezeigt, dass unsere Kirche an kein politisches System, an keine weltliche Regierungsform, an keine Parteienkonstellation gebunden ist. Die Kirche hat höhere Ziele..." (Karlheinz Deschner, Kirche und Faschismus, Rastatt 1993, S. 64).

Adolf Hitler interessierte sich in seiner Wiener Zeit vor allem für die "Rassen-Theorien" des ebenfalls in Wien lebenden Lanz von Liebenfels, der genau das germanische und antisemitische Gedankengut für das 20. Jahrhundert aufbereitete, das Hitler später propagierte. In Wien las Hitler die Zeitschrift "Ostara" des Lanz von Liebenfels, der einen Männer-Freundeskreis pflegte, dem auch der Dramatiker Fritz von Herzmanovsky-Orlando angehörte. Das "Rassen-Programm der NSDAP hat seinen Ursprung in Wien bei Lanz von Liebenfels; den so genannten "Rassenwertigkeitsindex" mit der Punktevergabe für Augen, Nase, Haare, Haut etc. gab es schon damals bei Lanz von Liebenfels. Frauen wurden vom "Neuen Templerorden" als Sklavinnen des Mannes betrachtet, und Lanz von Liebenfels sagte: "Behandle das Weib stets als das, was es ist: als erwachsenes Kind." Während die Ahnen von Karl Maria Wiligut vom Papst als "satanische Sippschaft" gebrandmarkt waren, war Lanz von Liebenfels Mönch in der Zisterzienserabtei "Heiligenkreuz" im Wienerwald. Zur Jahrhundertwende legte der Wiener Philosoph Otto Weininger mit seinem Buch "Geschlecht und Charakter" (1903) einen "philosophisch-ideologischen" und der christlichsoziale Politiker Karl Lueger (Wiener Bürgermeister von 1897 bis 1910) einen demagogisch-agitatorischen Grundstein für den Antisemitismus des 20. Jahrhunderts. Der religiöse Totenkult, der pompös im Dritten Reich betrieben wurde, das ganze mittelalterlich-kreuzritterhafte Getue und das ersatzreligiöse ideologische System spricht eine klare und eindeutige Sprache und ist unter dem Aspekt des religiösen Wahns zu fassen.

Von den insgesamt etwa 100 Attentaten auf Hitler ist kein einziges geglückt; das Umfeld Hitlers sprach von "Vorsehung". Hitler steigerte sich dabei in einen solchen Fanatismus, dass er noch 1945 auf die Erfüllung der "Vorsehung" setzte. Hier ist von einem religiösen Fanatismus zu sprechen, der Hitler Antrieb und Motor war, seine Pläne ohne jede Rücksicht umzusetzen. Hitler war katholisch bis zum Tod, glaubte an die "Vorsehung" und war ein religiöser Fanatiker. Nach dem "Endsieg" sollte Adolf Hitler als "Erlöser" zu Musik aus dem Bühnenweihfestspiel Parsifal von Richard Wagner unter einer von Albert Speer entworfenen von Säulen getragenen Kuppel in hellstem Licht erscheinen. Die Welt werde in zwei Hälften aufgeteilt, in eine West- und eine Ost-Hälfte, die eine bekomme der eine, die andere der andere Enkel von Richard Wagner. Die beiden Enkel von Richard Wagner hatten ein gutes Verhältnis zum Führer und nannten ihn "Onkel Wolf".

Adolf Hitler war Mitglied der katholischen Kirche und zahlte bis an sein Lebensende Kirchensteuer. Der junge Hitler stand unter dem Einfluss der Christlichsozialen Partei Österreichs; die Judenverfolgung verstand er als Fortsetzung des "Werkes der Kirche". Am Tag des Ermächtigungsgesetzes erklärte Hitler in seiner Regierungserklärung: "Das Christentum ist das unerschütterliche Fundament des sittlichen und moralischen Lebens unseres Volkes." Der Nationalsozialismus war an sich eine christlich-religionsfreundliche Diktatur und die weit überwiegende Mehrheit des Klerus bestand aus Nazis und Opportunisten wie Kardinal Theodor Innitzer, der sich 1938 öffentlich für den Anschluss Österreichs an das Dritte Reich aussprach.

Die evangelische Kirche biederte sich genauso an die Nazis an wie die katholische Kirche. Nach dem 2. Weltkrieg und dem Holocaust betrieb die katholische Kirche Fluchthilfe für Naziverbrecher und Massenmörder wie auch das Rote Kreuz und der US-Geheimdienst. Unter dem Begriff "Klosterrouten" versteht man Fluchtrouten von Nazi-Verbrechern und Massenmördern aufgrund der aktiven Beteiligung hochrangiger Vertreter der katholischen Kirche am gelingen der Flucht. Die Fluchtrouten führten über Italien nach Südamerika und dort hauptsächlich nach Argentinien, aber auch in den Nahen Osten. Über diese Routen gelang es nach dem 2. Weltkrieg einer großen Zahl von NS-Tätern und Faschisten, einer gerichtlichen Anklage und Bestrafung zu entgehen. Später bürgerte sich für diese Fluchtrouten der Begriff "Rattenlinien" ein. Der Vatikan leistete entscheidende Fluchhilfe für Nazi-Verbrecher, die nach dem Ende des 2. Weltkriegs einen sicheren Zufluchtsort erreichen wollten; für die katholische Kirche stand dabei der Kampf gegen den "atheistischen Kommunismus" ebenso im Vordergrund wie "christliche Nächstenliebe" und gleichsam der "Missionierungsauftrag", lateinamerikanische Länder mit Menschen zu infiltrieren, die antikommunistisch und prokatholisch eingestellt sind. Durch das Zusammenspiel zwischen dem Vatikan und der Organisation "ODESSA" (Organisation der ehemaligen SS-Angehörigen) wurde die "Klosterroute" zwischen Österreich, Italien und faschistischen Staaten Südamerikas aufgebaut. Bereits 1943 bereitete der kroatische Franziskaner-Priester Krunoslav Draganović zusammen mit dem österreichischen Titularbischof, katholischen Theologen und Rektor des deutschen Priesterkollegs "Santa Maria dell'Anima" Alois Hudal Fluchtrouten vor; viele Nationalsozialisten ehrten Draganović mit dem Namen "Goldener Priester".

Am 25. Juli 1943 berichtete der deutsche Botschafter am "Heiligen Stuhl" Ernst von Weizsäcker dem Auswärtigen Amt in Berlin, dass sich das "Vatikanische Staatssekretariat" für Angehörige der Familie Mussolinis und anderer Faschisten einsetzt. Papst Pius XII., der zum Holocaust schwieg, und sein enger Mitarbeiter Giovanni Montini (später Papst Paul VI. von 1963 bis 1978) statteten Bischof Alois Hudal, Träger des "Goldenen Ehrenzeichens der NSDAP", der eine Symbiose von Katholizismus und Nationalsozialismus propagierte, mit weit reichenden Kompetenzen aus, die es ihm ermöglichten, die Ausschleusung von Nazi-Verbrechern zu organisieren. Bischof Alois Hudal fühlte sich verpflichtet, sein gesamtes "wohltätiges Werk" hauptsächlich früheren Nationalsozialisten und Faschisten zu widmen, besonders den "so genannten Kriegsverbrechern" - wie sich Hudal ausdrückte. Der katholische Priester Krunoslav Draganović war als "Umsiedlungs-Beamter für die Deportationen von Juden und Serben verantwortlich und agierte als Sekretär der kroatischen Nationalkirche im Kloster "Istituto San Girolamo degli Illirici" in der Via Tomacelli nahe des Vatikans, das vom Vatikan als kroatische Sektion der "Päpstlichen Hilfskommission" PCA anerkannt wurde. Beinahe die gesamte Führungsriege des Ustascha-Staates wurde von hier nach Argentinien geschleust, unter anderen auch Ante Pavelić; der Massenmörder SS-Hauptsturmführer Klaus Barbie - der "Schlächter von Lyon"- bekam vom Kloster "San Girolamo" ein Visum nach Bolivien, zuvor wurde der Nazi-Verbrecher vom US-amerikanischen Geheimdienst CIC als "antikommunistischer Experte" rekrutiert. Bis 1962 war Krunoslav Draganović für den CIC tätig und arbeitete auch für den britischen als auch den jugoslawischen und den sowjetischen Geheimdienst. Bischof Alois Hudal aus Österreich stellte Nazi-Verbrecher so dar, als seien sie politisch Verfolgte, die persönlich ganz schuldlos nur die ausführenden Organe der Befehle ihnen übergeordneter Stellen gewesen wären. Darüber hinaus betonte Alois Hudal immer wieder den Nutzen der SS-Männer als erfahrene Kämpfer gegen den "antichristlichen Bolschewismus". Alois Hudal starb 1963 in Rom; in seinen Memoiren schreibt er von einer Verbindung von Christentum, Nationalismus und Sozialismus bei einem klaren Antikommunismus, womit er die christliche Soziallehre definierte.

Bischof Alois Hudal besorgte den flüchtigen Nazis Ausweiskarten, die das "Österreichische Bureau" in Rom ausstellte. Die flüchtenden Nazi-Verbrecher und Massenmörder erhielten die Unterstützung von päpstlichen Hilfsstellen, welche die neue und falsche Identität der Nazi-Flüchtlinge beglaubigten und die Visa beschafften, während das italienische Rote Kreuz für die Organisation der Pässe zuständig war. Weiters unterstützt wurden die Nazi-Verbrecher auch von der Caritas, vom Erzbischof von Genua Giuseppe Siri, dem Priester Edoardo Dömöter, der 1950 Adolf Eichmanns Antrag auf einen Rote-Kreuz-Pass unterzeichnete, und vom deutschen Verein "Stille Hilfe", der von hochrangigen Repräsentanten der katholischen und der evangelischen Kirche unterstützt wurde. In manchen Fällen wurden die Nationalsozialisten über gefälschte Papiere als "Überlebende von Konzentrationslagern" ausgegeben. Namentlich hatten die Nazi-Massenmörder SS-Obersturmbannführer Adolf Eichmann aus Österreich, "Todesengel" SS-Hauptsturmführer Josef Mengele, SS-Hauptsturmführer Erich Priebke, SS-Oberscharführer Josef Schwammberger, der "Schlächter von Riga" Eduard Roschmann aus Österreich und Franz Stangl, der als Kommandant der Vernichtungslager von Treblinka und Sobibor den Tod von 400.000 Menschen zu verantworten hatte, ihre Flucht und somit ihr Entgehen der Gerichtsbarkeit dem österreichischen Bischof Alois Hudal zu verdanken, der dies als "karitative Nächstenliebe" bezeichnete. Neben Adolf Eichmann, Josef Mengele, Walther Rauff und Erich Priebke wurde auch hunderten weniger bekannten Nazi-Verbrechern - hauptsächlich aus der SS - zur Flucht verholfen.

Auch der österreichische Massenmörder SS-Hauptsturmführer Alois Brunner erhielt "prominente" Fluchthilfe und landete sicher im Nahen Osten. Mitte der 80er Jahre gab Brunner Interviews - 1985 für die Zeitschrift "Bunte", 1987 für einen "Krone"-Journalisten -, jeder, der es wissen wollte, wusste, wo er sich in Syrien unter dem Namen "Georg Fischer" aufhält. Die österreichischen Behörden wussten auch, dass Alois Brunner in Briefkontakt mit seinem in Österreich lebenden Neffen steht und haben so gut wie nichts unternommen, den bei Briefbomben-Attentaten ein Auge und Finger verloren gehabten Alois Brunner zu fassen. Stattdessen erhielt Alois Brunners Ehefrau als Hinterbliebene eines Vermissten Witwenrente. Alois Brunner konnte in den 80er Jahren in Syrien einem Journalisten mitteilen, dass man ihm dankbar sein sollte, dass er Wien "judenfrei" gemacht habe. Und während man in der Republik Österreich als Naziverbrecher unbehelligt Karriere machen konnte, ließ man Simon Wiesenthal mit seinen Anliegen abblitzen, im Regen stehen und beschimpfen. 2007 gab es von der Republik Österreich erstmals eine Ergreiferprämie für SS-Hauptsturmführer Alois Brunner und den ebenfalls aus Österreich stammenden SS-Arzt im Konzentrationslager Mauthausen Aribert Heim in der Höhe von je 50.000 Euro. Beide wären 2007 über 90 Jahre alt gewesen, und es mehrten sich schon vorher die Hinweise, dass beide längst tot sind. Der österreichische Massenmörder SS-Oberscharführer Gustav Wagner, der "Henker von Sobibor", war in der NS-Tötungsanstalt Hartheim bei Linz und im Vernichtungslager Sobibor tätig, wo er "Selektionen an der Rampe" durchführte und über Leben oder Tod von 250.000 Menschen entschied. Mit Hilfe des Vatikans flüchtete Gustav Wagner auf der Rattenlinie zunächst nach Syrien und danach nach Brasilien. Der französische Nazi-Kollaborateur und Verbrecher Paul Touvier - während der deutschen Besatzung stellvertretender Kommandant der pronazistischen Miliz in Lyon - wurde zunächst auf Druck des Vatikans begnadigt. Später wurde er in Abwesenheit zum Tod verurteilt und entkam aufgrund eines Geschäfts mit dem Vatikan, weil sich Touvier bereit erklärt hatte, die gesamten Geldmittel der Miliz dem Vatikan zu übergeben - die Milizgelder stammten aus Plünderungen jüdischen Eigentums. Dem Erzbischof Iwan Butschko gelang mit persönlicher Fürsprache von Pius XII. die Freilassung einer Division der ukrainischen Waffen-SS, und die SSler konnten in verschiedene Länder ausreisen.

In dem Buch "Unholy Trinity" führen Aarons und Loftus Aussagen von Geistlichen an, nach deren Angaben Papst Pius XII. direkt Anweisung für die Organisation der "Rattenlinie" gab. Auf einem Foto ist Giovanni Montini, der spätere Papst Paul VI., bei einem Besuch in der kroatischen Nationalkirche zu sehen, als sich dort zahlreiche kroatische Faschisten aufhalten. Papst Pius XII. setzte sich nachweislich persönlich bei den Alliierten für die von Krunoslav Draganović protegierten kroatischen Kriegsverbrecher ein, um sie vor der Auslieferung an Jugoslawien zu retten, und er attestierte den Ustascha-Generälen Vladimir Kren und Ante Moskov "standhaft für die Anwendung humanitärer Prinzipien eingetreten zu sein". Pius XII. setzte sich weiters für zum Tod verurteilte Massenmörder ein, wie Otto Ohlendorf, der als Führer der Einsatzgruppe D die Ermordung von 90.000 Juden befahl, und Oswald Pohl, der als Chef des SS-Wirtschaftsverwaltungshauptamtes für die Verwaltung der Konzentrationslager verantwortlich war. Alfredo Ildefonso Schuster, Erzbischof von Mailand, war vom Faschismus schwer begeistert und unterstützte Mussolinis Eroberungskrieg gegen das Kaiserreich Äthiopien; später bemühte er sich sehr, aber vergeblich, das Leben von Diktator Mussolini zu retten. Zusammen mit seinem Sekretär Monseñor Giuseppe Bicchierai stand Erzbischof Alfredo Ildefonso Schuster zu Kriegsende in Kontakt mit dem Nazi-Massenmörder Walther Rauff, um ihm Tipps zu geben, wie der "Bolschewismus" zu stoppen sei. 1996 wurde Erzbischof Schuster, Großoffizier des Ritterordens "vom Heiligen Grab zu Jerusalem", von Johannes Paul II. selig gesprochen. Dem Nazi-Verbrecher Walther Rauff gelang die Flucht nach Südamerika, wo er 1984 in Chile starb, zuvor arbeitete er noch ab 1958 für den deutschen Bundesnachrichtendienst (BND).

Im Mai 1945, nach dem Tod von Adolf Hitler, forderte Kardinal Adolf Bertram die Priester seiner Diözese auf, ein feierliches Requiem im Gedenken an den Führer zu halten - in den 90er Jahren wurden die Gebeine von Kardinal Adolf Bertram im Breslauer Dom feierlich beigesetzt. Das katholische Irland sandte anlässlich des Tods von Adolf Hitler einen Kondolenzbrief an Deutschland.

 

Zur Erinnerung

res mixta einst und heute

Historische Wurzeln staatlicher Geldbeschaffung für die Kirche

1935 wurde erstmals unter der nationalsozialistischen Regierung die Konfession auf der Lohnsteuerkarte vermerkt. Kirchensteuern wurden fortan vom Arbeitgeber in „staatlichem Auftrag“ eingezogen.

Obwohl sich Deutschland als säkularer Staat versteht, besitzt die Kirche hierzulande - nach wie vor - umfangreiche Privilegien, die nicht mit dem Grundsatz der Trennung von Kirche und Staat vereinbar sind und an vielen Stellen auch mit einem gewaltigen Konfliktpotential mit den Inhalten des Grundgesetzes einhergehen. Wie z.B. beim gesonderten kirchlichen Arbeitsrecht, welches für kirchliche Einrichtungen gilt. Darüber hinaus werden kirchliche Einrichtungen wie Krankenhäuser, Kindergärten und Schulen trotz des hohen Vermögens der Kirchen mitunter bis zu 90 % vom Staat, d.h. von uns allen finanziert und eben nicht von der Kirche. Weitere Details siehe exemplarisch Demokratie in Bewegung

Rund 600 Millionen Euro zahlen die Bundesländer jedes Jahr an die Kirchen. Selbst Wikipedia identifiziert die Allianz zwischen Staat und Kirche, auch wenn die Überschrift etwas anderes suggeriert.

 

Facing reality

Heutige [Neo-]Rechtsextremisten sind keine besonders neue Erscheinung des ausgehenden 20. und beginnenden 21.Jahrhunderts, wie man den Menschen heute in Deutschland mantramäßig einhämmern möchte, sie sind leider, plakativ gesprochen, fester historischer Bestandteil der Deutschen "Demokratie" von Tag Eins an.

Die am 23. Mai 1949 gegründete Bundesrepublik Deutschland basiert zahlreich auf (ehemaligen) Mitgliedern der NSDAP, der Waffen SS, der SA und der NS Justiz. Wer prägte das deutsche Strafrecht in den 50er Jahren ? Es war, wie wir wissen (sollten), in ihrer überwiegenden Mehrheit die Justiz des NS-Staates, die in den bundesdeutschen Rechtsstaat übernommen worden war. Vor allem die Richter und Staatsanwälte, deren Geburtsjahr in das erste Jahrzehnt des 20. Jahrhunderts fiel, gehörten zu der Generation von Juristen, die den schonungslosen Justizterror der NS-Zeit in den politisierten Sondergerichtsverfahren während des Krieges direkt zu verantworten hatten. Zwar hatten die Alliierten ab 1945 zunächst zahlreiche belastete Richter und Staatsanwälte ihres Amtes enthoben - diese befanden sich jedoch soweit sie noch verwendungsfähig waren  -  bereits Anfang der 50er Jahre wieder in ihren Ämtern. In Niedersachsen betrug der Anteil von Richtern, die einstmals Mitglieder der NSDAP gewesen waren, in jener Zeit mehr als 80 Prozent, in Nordrhein-Westfalen waren etwa 75 Prozent der Richter und fast 90 Prozent aller nach 1945 wieder amtierenden Staatsanwälte zuvor NSDAP-Mitglieder. Und auch der Bundesgerichtshof, der 1950 den Obersten Gerichtshof der Britischen Zone als höchste Revisionsinstanz ablöste, wurde zu etwa 80 Prozent mit ehemaligen NS-Richtern besetzt. Z.B. Siegfried Buback, er war Generalbundesanwalt und damit oberster Strafverfolger der frisch restaurierten Bundesrepublik. Auch Siegfried Buback war Mitglied der NSDAP, der er 1940 in Dresden beitrat. Die letzten „historisch belasteten“ Juristen schieden erst Mitte der 1980er Jahre altersbedingt aus dem Justizdienst aus.

 

Wahrheiten Deutscher Geschichte

 

 

 

 

 

 

Rotation makroskopischer Vielteilchensysteme

Die makroskopische Eigendrehung starrer Körper ist im Rahmen der klassischen Physik plausibel nachvollziehbar. Kosmologisch kann es - bedingt durch den Entstehungsprozess beliebiger Vielteilchenkörper mit konkreten Anfangsimpulsen - unter Einwirkung der Gravitation bei genauer Betrachtung keine rotationsfreien Gebilde geben. Des Weiteren sollte klar sein, dass elliptische Himmelskörperbahnen bereits bestehender Objekte durch Anfangsimpulse festgelegt sind. Reale Kreisbahnen sind praktisch ausgeschlossen. Aber eine Analogie, respektive Projektion auf mikroskopische Prozesse wechselwirkender Entitäten ist aus verschiedenen Gründen jedoch stark diskussionswürdig, um es moderat zu formulieren.

 

Weshalb gibt es in der Natur keine Kreisbahnen?

Die Kreisbahn, als Resultat einer anziehenden Wechselwirkung, ist eine Idealisierung, zum Verständnis wie Kräfte wirken können.

Zweikörpersituation ohne Anfangsimpulse

Stellen wir uns zwei in Ruhe befindliche Massen (mit wenig Ausdehnung) und einem Abstand zwischen diesen vor. Was würde geschehen? Die Massen würden sich gemäß Gravitationswechselwirkung geradlinig sprich auf kürzesten Weg aufeinander beschleunigt zu bewegen und kollidieren. Das bedeutet, ohne Anfangsimpulse kommt es, bei anziehenden Kräften, grundsätzlich zur Kollision. Was dann geschieht, hängt von den inneren Strukturen ab. Stichworte: Elastischer und inelastischer Stoß. 

Sobald Anfangsimpulse existieren (Geschwindigkeits-Vektoren), die nicht nur geradlinig in Richtung der Kollisionspartner sind, kommt es immer zu ellipsenförmigen Bahnen. Die Massen kollidieren nicht, sondern "schießen" aneinander vorbei und bilden dann eine stabile Ellipsenbahn um den gemeinsamen Schwerpunkt.

In unserem Sonnensystem bewegen sich die Planeten nicht um die Sonne, sondern um den gemeinsamen Schwerpunkt (allgemein Baryzentrum). Dass die reale Situation viel komplexer ist, läßt sich leicht verstehen, da nicht nur alle Planeten sondern auch deren Trabanten (Monde) mit wechselwirken. Dieses Mehrkörperproblem läßt sich nicht analytisch lösen. Siehe verallgemeinert das Mehr-, meist N-Körperproblem genannt.

 

 

Bohr-Sommerfeld-Atommodell

Himmelsmechanisch sowie postuliert im Bohr-Sommerfeldschen Atommodell bewegen sich zwei Massen mA, mB um den gemeinsamen Schwerpunkt. Um dies energetisch auszudrücken wird (für die kleinere Masse,) die so genannte reduzierte Masse eingeführt. mred = mA / (1 + mA/mB).

 

 

Interessant ist die Tatsache, dass die Arnold Sommerfeldsche Erweiterung des Bohrschen-Atommodells ohne Spinpostulat korrekt die Feinstruktur des Wasserstoff-Atoms beschreibt. Sommerfeld führte relativistische, Keplersche Ellipsenbahnen für das im Bohr-Modell radialsymmetrisch kreisende Elektron ein, bezog sich auf Kugelkoordinaten und quantisierte diese unabhängig voneinander.

Warum er nicht konsequent himmelsmechanisch denkend, dem Elektron auch einen phänomenologischen Spin im Sinne eines realphysikalischen Trägheitsmomentes gegeben hat, ist fragwürdig. Es wäre aus heutiger Elementarkörpertheorie basierender Anschauung evident gewesen, dass Bohr, Sommerfeld und Kollegen sich generell hätten fragen müssen, wie eine ladungsabhängige elektrische Zentripetalkraft mit einer mechanischen, masseabhängigen Zentrifugalkraft phänomenologisch wechselwirkt, da dies im Rahmen der herrschenden Beschreibungsmodelle nicht möglich  war und ist. Erst wenn man die Masse-Radius-Kopplung und den Zusammenhang zwischen Ladung und Masse-Radius-Konstanz erkennt und akzeptiert, wird verständlich, dass das mathematische Gleichsetzen von elektrischer und mechanischer Kraft eine phänomenologisch begründete Basis besitzt.

 

Standardmodelle einst und heute

Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik (QM) basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien Parametern, war mathematisch „richtig“, phänomenologisch falsch und die Objekte der Beschreibung waren (sind) sichtbar. Das SM arbeitet mit 25 freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen, theorieinduzierten nicht realen Objekten und keines der postulierten Theorie-Objekte ist sichtbar (direkt messbar).  

 

 

Phänomenologisch begründet sieht die Welt Masse-Raum gekoppelt verständlich anders aus

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind  alle Ladungswechselwirkungen sowie »Ladung« selbst anschaulich auf Masse-Radius-Kopplungen zurückzuführen.

Elektrische Ladungen im Elementarkörper-Denkmodell sind phänomenologisch begründet und kommen als (formales) Resultat der Masse-Radius-Kopplung nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor.

"Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten. Zum einen die energetisch ruhemasse-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e.

 

 

 

Konsequenterweise wird somit die Feinstrukturkonstante α Elementarkörper basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von elektrischer Energie und Gesamt-Energie...

Hier ist zu bemerken, dass quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.

f7 wurde oben "eingeführt", um u.a. suggestiv zu verdeutlichen, dass es sich bei der [Elementarkörper-]Ladung q0 ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Größe, die aus der elektrischen Elementarladung e "entstammt".

 

Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung qcgs "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert.

 

 

Nichts dreht sich, nichts bewegt sich im "natürlichen" Gleichgewicht der Masse-Raum-Kopplung

Im Bild der Elementarkörper sieht die QM-postuliert himmelsmechanische Verschiebung im Mikrokosmos, exemplarisch zwischen Proton und Elektron, phänomenologisch ganz anders aus. Die reduzierte Elektronenmasse, die in die Berechnung der Grundzustands-Energie und exemplarisch in die Berechnung aller möglichen Energie-Niveaus des Wasserstoff-Atoms "Einzug hält" ergibt sich vollkommen symmetrisch aus einer einfachen Überlagerung zweier Elementarkörper A und B mit den Massen mA und mB und den inhärent Masse gekoppelten Radien rA und rB. Mittels Masse-Radius-Konstanten-Gleichung [F1] gibt es hier keinen Interpretationsspielraum. Das Ergebnis gilt für jegliche Ladungsträgerkonstellationen (...A-B, Proton-Elektron, Proton-Myon,...). Im Gegensatz zu einer Bahnbewegung, die nur im statistischen Mittel als symmetrisch verstanden werden kann, da sich die bewegenden Massen stets zeitabhängig lokal manifestieren, ist die Elementarkörperüberlagerung bewegungslos zeitstabil symmetrisch.

 

Hier sieht man deutlich, dass die vermeintliche Schwerpunkt-Korrektur des »Himmelsmechanischen Denkmodells in der QM«, exemplarisch zwischen Proton und Elektron, mit dem Schwerpunkt zweier Ladungen im Abstand r nichts zu tun hat, da Elektron und Proton, damals wie heute, als gleichstarke Ladungen keine Schwerpunktsverschiebung erleiden können, weder phänomenologisch noch rechnerisch.

 

 

Die Betrachtungen zur Verkörperung des euklidischen Abstandes sind eine Ergänzung, die dem einen oder anderen Interessierten hilft, dem Denkmodell-Prinzip der Verkörperung anschaulich näher zu kommen.

Verkörperung des euklidischen Abstandes

 

 

 

Es ist erstaunlich wie dieser Sachverhalt über Generationen massenpsychologisch ignoriert wurde und nach wie vor ignoriert wird. Insgesamt betrachtet kann im Weltbild der herrschenden Physik eine Masse mit einer Ladung nicht wechselwirken. 

 

Das Gleichsetzen einer elektrischen Zentripetalkraft mit einer (nur) masse-abhängigen Zentrifugalkraft ist im Rahmen der hiesigen Physik phänomenologisch unbegründet und erinnert an die Epizykeltheorie. Halten wir fest: Der Ausdruck für die resultierende Masse m(rA + rB) in Gleichung [MAB] ist mathematisch zwar identisch mit der himmelsmechanischen Schwerpunktkorrektur zweier makroskopischer Massen, die rechnerisch als Punktmassen elastisch interagieren, die Phänomenologie zur Gleichung [MAB] ist aber eine gänzlich andere.

"Wechselwirkungstechnisch" liegt der phänomenologisch begründete Symmetrievorteil zweier ursprungsüberlagerter Elementarkörper "klar auf der Hand". Alle Wechselwirkungs-Punkt-Elemente der Kugeloberfläche sind unbewegt und gleichberechtigt. Jedwede andere Konstellation postulierter wechselwirkender "Entitäten" ist asymmetrisch. Man denke zum Vergleich (lieber nicht) an das postuliert "leptonische" Elektron ohne Struktur und ohne Radius und an das postuliert asymmetrisch "ladungsfragmentierte", substrukturierte Proton des SM.

 

 

 

Elektronenmasse inhärenter Elektronenradius

Da nahezu alle erfolgreich Indoktrinierte bei dem Begriff Elektronenradius eine Krise bekommen und "instantan" an den ungeliebten klassischen Elektronenradius denken, sollen diese vorerst den, wie sich zeigen wird, Elektronen-Masse inhärenten Radius re, durch die "problemfreie" Comptonwellenlänge des Elektrons λe gedanklich ersetzen, bzw. erst einmal re als Rechengröße "hinnehmen".

Faktisches zur Anregung des eigenständigen Denkens

Außerhalb des "Interpretationsspielraumes" des Teilchenbeschleunigers kommt der Elektronenmasse inhärente Elektronenradius re, respektive der klassische Elektronenradius re(klassisch)  (=  ( α/4) · re), in allen (!) verwendeten Gleichungen zur Berechnung der Streuquerschnitte bei elastischen und inelastischen Streuungen an Elektronen vor (Stichworte: Møller-Streuung, Compton-Streuung, Elektron-Positron-Paarbildung, Photoelektrischer Effekt, Klein-Nishina-Gleichung, Bethe-Bloch-Sternheimer-Gleichung) und steht in einem phänomenologischen Zusammenhang mit der Comptonwellenlänge (des Elektrons). Hier gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standard(-Modell-)Physiker und deren Anhänger.

Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-18 [m] in Verbindung mit Teilchenbeschleunigern sind "falsch", sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen und dessen Elektronenmasse inhärenten Radius. Die Elementarkörpertheorie beschreibt konsistent, sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner des Elektrons als auch hochenergetisch im Teilchenbeschleuniger. Eine ausführliche Diskussion des omnipräsenten Elektronenmasse inhärenten Elektronenradius re findet sich unter : Elektronenradius

 

Differentieller Streuquerschnitt

Der differentielle Streuquerschnitt dσ/dΩ nimmt für Elektronen stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(klassisch) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) masse-radius-gekoppelt-energetisch analysiert. Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zur Gesamtenergie = (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re, der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe =  re · π/2).

Das Fazit des Elektronenmasse inhärenten Elektronenradius basierend auf der Phänomenologie der Elementarkörper und ausnahmslos bei allen Streuversuchen bestätigt:

Der Elektronenmasse me inhärente Elektronenradius re führt, über den klassischen Elektronenradius re(klassisch), der als (skalierter) Wechselwirkungsradius bei allen Elektronen-Streuexperimenten in Erscheinung tritt, zu einem allgemeinen Verständnis über den Masse-Radius-Zusammenhang elementarer Körper.

 

Exemplarisch

Hier wird die fundamentale Masse-Radius-Kopplung deutlich, die formal mittels der Masse-Radius-Konstanten-Gleichung [F1] abgebildet wird. Es gilt für das ruhende Elektron: me · re = Fek

 

Übergeordnet zur Erinnerung, Kenntnisnahme und Selbstanalyse

Was ist eine physikalische Gleichung?

Eine physikalische Gleichung besteht aus maßgebenden Größen (Ladung, Masse, Radius,...), möglicherweise Naturkonstanten, Koeffizienten und Rechenvorschriften. Der Sinn einer physikalischen Gleichung besteht darin, in Abhängigkeit der vorkommenden Gleichungsbestandteile, eine qualitative und quantitative Aussage zu treffen. Nun zu behaupten, der klassische Elektronenradius re(klassisch), respektive der Elektronenmasse inhärente Elektronenradius re käme zwar in allen Gleichungen zur Streuung an Elektronen vor, hätte aber keine "maßgebende" Bedeutung, sondern sei nichts weiter als eine Rechengröße, ist irreal und interdisziplinär grotesk.

 

Leser-Anregung

Die Suggestion einer realmessbaren Situation für Theorieobjekte der Standardmodelle scheint mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige Analyse vornehmen zu können, sollten Aussagen selbständig überprüft werden: Ob Neutrino, Higgs-Boson oder man denke sich ein beliebiges Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde je direkt gemessen. Umso tiefer man in die konkrete Konzeption und die technische Realisation des Messvorganges „eindringt“, umso deutlicher wird verständlich, wie theoriebeladen, beliebig und aussagelos die Experimente sind. Man sollte nicht einfach an eine korrekte Meß-Existenz glauben, sondern selbst die meßtechnischen Randbedingungen sowie theoretischen „Implikationen“ die die angeblichen Existenzbeweise liefern überprüfen.

Die eigene Modellforschung war/ist somit zwangsweise mit den Postulaten, Thesen und stark theoriebeladenen Experimenten der bestehenden Modelle konfrontiert (gewesen). So entsteht nach Jahren der Beschäftigung mit dem SM ein tiefgründiges Fachwissen. Das führt manchmal dazu, dass ich in der Wissensprojektion "Dinge" zum Verständnis bei Lesern voraussetze, die noch nicht oder nur im Ansatz als SM-Konsistenzprobleme erkannt respektive verstanden wurden. Sofern Geduld und Neugierde vorhanden sind, lassen sich dem thematisch Interessierten jedoch die wesentlichen Unstimmigkeiten und schwerwiegenden logischen Denkfehler der Standardmodelle auch ohne tiefgreifende formal-mathematische Kenntnisse plausibel machen.

 

 

Zur Erinnerung

Die »Freien Parameter« des Masse-Radius-gekoppelten Raumes

Einzig folgende Meßwerte werden für die EKT benötigt,

Masse des Elektrons, Masse des Protons, Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, der Wert der Dieelektrizitätskonstanten.

Das wären dann 7 freie Parameter, wenn man so will, die von der Natur vorgegeben und relativ einfach meßbar sind.

Da wir hier die Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, den Wert der Dieelektrizitätskonstanten zu den freien Parametern der EKT zählten, müssen wir diese gemäß der verwendeten Standardmodell-Terminologie jedoch wieder abziehen, da diese nicht als freie Parameter aus Sicht der Standardmodelle gelten.

Bedeutet:

Die EKT benötigt nur (!!!) 2 freie Parameter!

Die Masse des Elektrons und die Masse des Protons

Zum Vergleich: Das Standardmodell der Teilchenphysik benötigt derzeit 25 freie Parameter, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]4, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…

]4 Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann.
Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung verletzt, zweitens stimmt die Aussage, dass der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „Higgs korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen.

 

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen wortwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

statt  4 Grundkräften     →    Masse - Radius - Kopplung

 

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen. Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte Zeit, noch mathematische Raum-Zeit-Konstrukte notwendig.

Die Transformation von einem Photon zu einem masse-radius-gekoppelten Raum entspricht phänomenologisch nicht einer periodischen Teilschwingung, wie anfänglich (auch) im Rahmen des Elementarkörperdenkmodells angenommen wurde. Die materiebildende Transformation von einem Photon entspricht einer irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“ von der klassischen Physik bis hin zur Quantenmechanik gefordert wird, steht ganz allgemein im Widerspruch zur Meß-Realität.

 

 

Im Rahmen der EKT ist das Formal zwingende maßgebend und führt stringent-konsequent - ergebnisoffen gedacht - interessanterweise über den einfachen Formalismus r(t) = r0 ·sin(c·t/r0) und m(t) = m0 ·sin(c·t/r0) zur plausiblen Grund-Anschauung. Mit dem Ergebnis, das lichtschnelle Bewegung raum- und masselos ist. Des Weiteren führt das gemäß der Energieerhaltungsforderung weitergedacht zu der Aussage, das Information selbst eine Energieform ist. Inwieweit man sich das "sinnlich" vorstellen kann, ist letztendlich aus Sicht eines Denkmodells ohne Belang. Insbesondere unter dem Aspekt, das die exakten Berechnungen der EKT den Elementarkörperentstehungsprozess explizit nicht (mehr) enthalten.

Zur Frage, wie man sich den raum- und masselosen Zustand für r(t) = 0 vorstellen kann?

Plakativ formuliert: Immer dann, wenn Singularitäten ins Spiel kommen, ist die realphysikalische Anschauung "am Ende". In der Mathematik ist es hingegen eine Standardprozedur mittels Abstraktionen, wie mit Punkten zu "rechnen", um die Realität formal zu beschreiben, die so gut wie nie - aus Sicht der (Nicht-)Möglichkeit einer Sinnerfahrung - kritisch hinterfragt werden. 

Gibt es experimentelle Bestätigungen dafür, das sich Körper mit Masse und Ausdehnung in masse- und raumlose Entitäten umwandeln?

Oder etwas anders gefragt: Gibt es experimentelle Hinweise, die die innere Dynamik des Elementarkörpers (»Impuls-Masse-Inversion«) im Hinblick auf seine Entstehung bestätigen können?

Die Genese respektive die innere Dynamik von Elementarkörpern

Blicken wir (experimentell bestätigt) in die „andere Richtung“. Was passiert wenn  Entitäten annihilieren?Experimentelles Ergebnis: Sie "zerstrahlen". Sie werden zu Photonen! Nichts anderes "sagt", genauer drückt die Elementarkörpertheorie mittels der Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/ r0) für t = 0 aus.

Ja. Siehe die Annihilation von Protonen und Elektronen.

Lassen wir hier außen vor, wie sich das im Standardmodell der (Elementar-)Teilchenphysik abspielen soll. 

 

Interdisziplinäres

Es ist in der interdisziplinären, insbesondere philosophischen Rezeption eine spannende Frage, inwieweit selbst Metaphysiker auf den »Paradigmenwechselzug der Elementarkörpertheorie« aufspringen wollen oder können, wenn klar wird, das der Ursprung des Elementarkörpers r(t) = 0 für Entstehungsspekulationen offen ist und offen bleiben wird. Aus Sicht der "Arbeit eines Denkmodells" ist das nicht relevant. Für den Erfolg der EKT im Vergleich zu den Standardmodellen ist das gleichfalls irrelevant.

 

 

 "Ankopplung" an Bestehendes

Die minimalistische Elementarkörpergleichung r(t) :

    [P2.3] 

erfüllt offensichtlich die Grundvoraussetzung für Superpositionen, wie diese in der Quantenmechanik (QM) und allgemein in Quantenfeldtheorien (QFTn) über Wellenfunktionen üblich sind. Ein wesentlicher Unterschied besteht in der Tatsache, dass die Elementarkörpergleichung r(t) einen deterministischen Real-Objekt bezogenen Charakter besitzt, während hingegen die indeterministische "quantenmechanische Wahrscheinlichkeits-Wellenfunktion" ψ u.a. "objektbefreit" ist.

Ein einziges, „einsames“, stoßfähiges Teilchen ist "undifferenziert" weder eine Welle, noch erzeugt es eine Welle. Die zentrale Frage lautet: Was muß "geschehen", dass »es« als Teilchen und Welle wahrgenommen wird?

Elementarkörpertheorie basierende Erklärung zur Anatomie der Strahlung

Eine Elementarkörpertheorie naheliegende, zwanglose Konsequenz ist, dass ein Photon ein Elementarkörper ist, das sich mit Lichtgeschwindigkeit bewegt. Somit verfügt auch ein einzelnes Photon, dessen radialsymmetrische Ausdehnung im Zustand der möglichen Wechselwirkung gemäß der Radiusgleichung :

   [P2.3]

"teil-oszilliert" über "Unschärfe", "Welleneigenschaften" und mit Gleichung [P2m↓] über eine ("stoßfähige") Masse.

Die qualitativen Ergebnisse von Beugungsexperimenten an Spalten bestätigen diese Annahme, da die Interferenzmuster (Intensitäts-Verteilungen) für Photonen und bewegte Materie qualitativ gleich sind.

Information als materieller Zustand = Elementarkörper          Zustand als Information = Photon

Erkenntnistheoretisch - und wenn man so will philosophisch - "steht" der Nullpunkt, die "Null", nicht für "Nichts", sondern repräsentiert den maximalen Bewegungszustand. Dieser Zustand entspricht der (zeitlosen) Lichtgeschwindigkeit.

Das grundsätzliche Mißverständnis ("außerhalb" der Elementarkörpertheorie) besteht darin, dass die Eigenschaften eines wechselwirkenden Photons auf den »Ruhezustand« des Photons projiziert werden. Der »Ruhezustand« des Photons ist jedoch gemäß Gleichung [P2.3] und deren zeitlicher Ableitung [P2.3b], sowie [P2m] der raum- und masselose, „lichtschnelle“ (Energie-)Zustand maximaler Bewegung. Das bedeutet: Das sich gerichtet eine Information ausbreitet, die sich erst bei Absorption des Photons gemäß Gleichungen [P2.3], [P2m] und deren Ableitungen „entfaltet“ und dann die zeitabhängigen meßtypischen Phänomene der Interferenz und des (massebehafteten) Stoßes zeigt.

Die vermeintlich immerwährende Wechselwirkungs-Wellennatur des Lichtes ist eine falsche Annahme.

 

Am Rande bemerkt

In den "Niederungen der Realität" herrscht Beliebigkeit und (destruktive) Naivität

Spalte und Beugungskanten werden in der Regel phänomenologisch als "Schwarze Boxen" betrachtet. Wenn man die Natur der Wechselwirkung aber über Rechenvorschriften hinaus verstehen möchte, ist es zwingend ein Denkmodell von der atomaren Struktur des Spaltes und der Beugungskanten zu entwickeln. Das ist im Bild der modernen phänomenologiebefreiten Grundlagenphysik überaus schwierig, da ein mathematisches, Quantenfeldtheorie geprägtes System aus Quantenzahlen, mathematischen Gruppen, deren Transformationen und Symmetriebeziehungen nicht den Hauch einer Real-Objekt-Anschauung inne hat. Im Ergebnis sind alle Quantenfeldtheorie beladenen Prinzipien zur Beschreibung realitätsferne heuristische Standpunkte. Die Qualität der Mutmaßungen variiert stark mit dem Anwendungsgebiet. Des Weiteren ist die Strahlung in Versuchen ein Objekt-Ensemble. Im Versuch vermischen sich, geprägt durch theoretische Erwartungshaltungen, kunterbunt Einzelobjekt-Eigenschaften mit statistischen Verteilungseffekten des Objekt-Ensembles. Die Interpretationen und Schlussfolgerungen sind haltlos.

Wünsche, Beliebigkeiten und Wirklichkeit

Das größte Problem der vorherrschenden Objekt-Bewertung besteht in der schlichten Feststellung, dass es keine bzw. je nach Versuchsbedingung inhaltlich stark reduzierte, inkonsistente "Wünsch Dir Was" Beschreibungen zur Anatomie der Strahlung gibt. Die - im Sinne der Phänomenologie -  Kapitulation des Denkens gipfelte im anerkannten 100-jährigen Welle-Teilchen-Dualismus. Die Quantenelektrodynamik (QED) beseitigt keineswegs die Welle-Teilchen-Dualismus-Problematik, wie so gerne von der herrschenden Physik propagiert wird. Das mathematische Konzept der QED blendet schlicht den Anspruch auf Anschaulichkeit aus. Die Suggestion, das ein mathematisches Gebilde Plausibilität überflüssig macht, wirkt. Die komplexen Rechenvorschriften der QED liefern zwar Ergebnisse aber liefern keine konsistente Anschauung.

Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie skizziert werden.

In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten postuliert zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

Das zeitstabile »meßtechnisch reale Photon« ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier rational-logisch zu bemerken ist, dass 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie unbestimmt sind. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend ineffizient. Hier gilt auch zu bemerken, dass ausnahmslos alle experimentellen Nachweise indirekte, stark theoriebeladene Nachweise sind. Auf die Vektorbosonen verwandten Problematiken der postulierten asymmetrisch, ladungsfragmentierten Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese, Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen, etc. kommen wir noch ausführlicher zu „sprechen“. 


Eine Aussage der herrschenden Physik besagt: Natürliches Licht (natürliche Strahlung) ist unpolarisiert weil... Begründung:  Die axiale Symmetrie (Statistische Gleichverteilung) entsteht aus der unkorrelierten Gesamtheit der radial beliebig positionierten transversalen elektromagnetischen Wirbelfelder-Paare, da auch die "Strahlungserzeuger" der elektromagnetischen Strahlung ohne bevorzugte Richtung abstrahlen.

Kommentar: Der statistische Aspekt ist ein durchaus nachvollziehbares Resultat eines Vielteilchensystems. Die der Statistik zugrunde liegende Idee zur Natur des Einzelereignisses ist jedoch falsch.

Konkreter Einwand: Mittels zweidimensionaler Lehrbuch-Abbildungen wird das zeitabhängige elektromagnetische Feld in senkrecht aufeinander stehende zeitabhängige, entkoppelte elektrische und magnetische "Flächenfelder" im wahrsten Sinne des Wortes "verbreitet". Die suggestive Wirkung ist immens. Nur wie soll das in der Realität funktionieren? "Reale" elektrische und magnetische Felder besitzen grundsätzlich eine räumliche Ausdehnung. Die wundersame zeitliche Flächenfeld-Entwicklung ohne erkennbare (Rückstell-)Kräfte ist eine Sache, das flächenartig angenommene Feld eine andere. 

 

Schon die Reduktion auf eine geschlossene elektrische Feldlinie und eine geschlossene magnetische Feldlinie ist irreführend, erst recht die Annahme eines scharf begrenzten zeitabhängigen "Flächenfeldes". Unter anderem die daraus resultierende naiv-bildliche Erklärung der Polarisation unterstützt zwar diesen Irrglauben, ändert aber nichts an der fundamentalen Problematik.

Beugungsexperimente bestätigen nicht die Wellennatur des Lichtes sondern lediglich die Periodizität des Lichtes. Bereits Ernst Mach [EM3] zeigte, dass alle Beugungs- und Interferenzexperimente nicht die Welle, sondern nur die Periodizität des Lichtes beweisen.

[EM3]Ernst Mach, Die Prinzipien der physikalischen Optik. Barth, Leipzig 1921; The Principles of Physical Optics. New York 1926.  

 

Phänomenologisches Fazit

Die zeitlich begrenzte Interaktion des Photons reduziert sich auf die «sinusförmige Ausschwingung» des Photons. Es wird bei dieser materiebildenden Reaktion phänomenologisch raum- und masselose, „reine“ Bewegungsenergie in einen Masse gekoppelten Raum gemäß Gleichungen [P2.3] und [P2m] umgewandelt. Hier werden plausible Zusammenhänge zwischen Information (Entropie), Energie, Masse und Raum „sichtbar“. Daraus folgt, dass Information eine Energieform ist. E = m0c² steckt also nicht nur im Masse gekoppelten Raum sondern auch in der Information über diesen Zustand in Form eines Photons.

Die Transformation von einem Photon zu einem masse-radius-gekoppelten Raum entspricht phänomenologisch nicht einer Teilschwingung, wie anfänglich (auch) im Rahmen des Elementarkörperdenkmodells angenommen wurde. Das ist unter thermodynamischen Gesichtspunkten eine wichtige Erkenntnis, respektive die Thermodynamik gibt diese notwendige Randbedingung vor. Die materiebildende Transformation von einem Photon entspricht einer irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“ von der klassischen Physik bis hin zur Quantenmechanik gefordert wird, steht ganz allgemein im Widerspruch zur Meß-Realität thermodynamischer Prozesse (u.a. die physikalische Chemie lässt hier grüssen). Der voll ausgebildete Elementarkörper (r(t) = r0 , m(t) = m0) kann aus sich heraus nicht wieder den Zustand des Photons erreichen. Die Wechselwirkungs-Irreversibilität, die möglich ist, muß über eine Anregung von „außen“ geschehen. Das könnte die Wechselwirkung mit weiteren Elementarkörpern, Photonen oder „verkörperten Feldern“ sein, die letztendlich bezogen auf (Feld-)Raum-Zustände energetisch stets als Elementarkörper(-Zustände) verstanden werden können.    

Wechselwirkungsbasierende sinusförmige Ausschwingung

Der durch eine Wechselwirkung ausgelöste Prozess der «sinusförmigen Ausschwingung» ist reversibel und fundamental von der im wahrsten Sinne des Wortes ursprünglichen theoretischen Zustandsänderung eines einzelnen Elementarkörper zu unterscheiden. Das heißt, dass ein massegekoppelter Raum gemäß Gleichungen [P2.3] und [P2m] und deren zeitlicher Ableitungen wieder zu einem Photon werden kann, welches als solches „abgestrahlt“ wird. Dieses Photon verbleibt im »Photonen-Ruhezustand« bis es (erneut) wechselwirkt. Einfachstes Beispiel wäre die Proton-Elektron-Wechselwirkung, die durch „Abgabe“ einer Energie-Information (Rydberg-Energie im Photonenzustand) zu einem Wasserstoff-Atom führt und bei „Ergänzung“ der Rydberg-Energie zur Lösung der Verbindung führt. Diese Wechselwirkung kann zu einem Zustand teil-reduzierter Energie-Information führen (beispielsweise Compton-Streuung), exemplarisch die „Energielücke“ der Bindung einer bestehenden Atom oder Molekül-Struktur ergänzen, so dass diese (wieder) aufgespalten wird oder es kommt zur Paarbildung. Die Paarbildung (und auch die Paarvernichtung) ist ein eindeutiges Indiz für die These, dass eine Elementarkörperwechselwirkung und inhärent eine (Teil-)Transformation des Zustandes stets die Anwesenheit von mindestens zwei Elementarkörpern erfordert. 

Stellt man sich die Elektromagnetische Welle (das Photon) als eine „lichtschnelle“ Schwerpunktsbewegung eines Elementarkörpers im Zustand maximaler Bewegung vor, so wird begründet, warum das elektrische und magnetische Feld im Zuge einer Wechselwirkung in energetischer Analogie zeitgleich periodisch oszillieren. Zweitens lassen sich Interferenzmuster qualitativ deuten. Maxima und Minima sind phasen- und zeitabhängig, da der Elementarkörper und somit das energetisch gedacht gleichwertige elektromagnetische Feld räumlich begrenzt (r0) wechselwirkt. Des Weiteren sind sowohl Strahlungsdruck als auch eine gravitative Wechselwirkung (nun) mit Gleichung [P2m] klar verständlich. Das nichtwechselwirkende Photon jedoch verbleibt im masse-, raum- und zeit-losen Zustand maximaler Bewegung. Nur es handelt sich nicht um Felder, was das auch immer sein mag. Die «sinusförmige Ausschwingung» erscheint wie ein Feld, ist aber keines.

 

 

Frühgeschichtliche wissenschaftliche Ahnungen
respektive frühgeschichtliches Wissen

Sowohl Johann Wolfgang von Goethe (1749 - 1832) als auch Isaac Newton (1642 - 1726) haben sich zum Wechselspiel zwischen Materie und Licht geäußert.

 

»Ich bin Teil eines Teils, der anfangs alles war.«

"Ein Teil der Finsternis, die sich das Licht gebar, das stolze Licht, das nun der Mutter Nacht den alten Rang, den Raum ihr streitig macht. Und doch gelingst ihm nicht, da es, soviel es strebt, verhaftet an den Körpern klebt. Von Körpern strömts, die Körper macht es schön, ein Körper hemmt's auf seinem Gange; so, hoff ich, dauert es nicht lange, und mit den Körpern wirds zugrunde gehn."

Johann Wolfgang von Goethe

 

"Sind Körper und Licht nicht ineinander umwandelbar, und können Körper nicht viel von ihrer Aktivität von den Lichtteilchen empfangen, die in ihre Zusammensetzung eindringen? Die Umwandlung von Körpern in Licht und Licht in Körper ist sehr anpassungsfähig an den Verlauf der Natur, diese scheint begeistert von den Umwandlungen zu sein. "

"Are not gross bodies and light convertible into another, and may not bodies receive much of their activity from the particles of light which enter their composition? The changing of bodies into light and light into bodies is very conformable to the course of Nature, which seems delighted with transmutations."

Newton , I. (1717) Opticks, or, a Treatise of the Reflections, Refractions, Inflections and Colours of Light, Query 30.                 Isaac Newton

 

 

Einleitend Bekanntes zur Erinnerung für die weiteren Ausführungen

In der Elementarkörpertheorie ist die Zeit eine Variable ohne Substruktur, bedeutet u.a. Zeit ist nicht dilatierbar. Phänomenologisch: Zeitdilatation ist genauso wenig vorstellbar wie die Krümmung eines dreidimensionalen Raumes. Physik wird hier in einem dreidimensionalen, sinnlich vorstellbaren Raum beschrieben, die sich auf Grund der Radialsymmetrie räumlich konstruktiv reduziert und sich mit Hilfe des Radius abbilden und formalisieren lässt.

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten Masse-Radius-gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Das exakte Ergebnisspektrum umfasst Größen von der exakten theoretischen Berechnung des Protonenradius, der Berechnung der Neutronenmasse, der genauesten theoretischen Berechnung der Ionisierungsenergie des Wasserstoffatoms, der Herleitung der Sommerfeldschen Feinstrukturkonstanten, aus Vergleich von elektrischer und Gesamt-Energie, der anomalen magnetischen Momente für Elektron, Proton, Neutron bis hin zu makroskopischen, wie der Temperatur der kosmischen Hintergrundstrahlung, um nur einige wichtige zu nennen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.  

 

Was ist Masse?

In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur (möglichen inneren : 0 r(t) ≤ r0 ) Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe exemplarisch zum Verständnis die Ausführungen zur Impulsmasse-Inversion.

 

Randnotiz zum Begriff der (Ruhe-)Masse in der SRT

Ohne das an dieser Stelle näher auszuführen, wird im Rahmen der Speziellen Relativitätstheorie (SRT) der Begriff invariante Masse statt Ruhemasse verwendet. Die Ruhemasse (invariante Masse) der SRT ist inhärent mit Inertialsystemen verbunden. Zur Begriffsdefinition: Eine Größe, die sich bei Lorentz-Transformationen nicht ändert, heißt Lorentz-Invariante. In der Speziellen Relativitätstheorie wird Masse (mSRT) so definiert, dass sie eine lorentzinvariante Größe ist.

Die axiomatisch begründete SRT ist im Rahmen ihres Inertialsystem belasteten Gültigkeitsbereiches also stets richtig aber realphysikalisch – im wahrsten Sinne des Wortes - gegenstandslos. Sie behandelt die Welt rein kinematisch ohne – beispielsweise - Rücksichtnahme auf geometrische Strukturbildungen. Sie ist erst recht gegenstandslos unter dem Gesichtspunkt realphysikalischer Vorgänge, denen allesamt Beschleunigungen zu Grunde liegen. Es ist also - moderat formuliert – sehr befremdlich, dass Physiker beschleunigte, massebehaftete Ladungsträger mit der Axiomatik der SRT „belegen“. Mit anderen Worten: Bevor hier Mißverständnisse aufkommen. Es wird nicht behauptet, dass die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT.

 

Ist die Elementarkörpertheorie "relativistisch"?

Das Verständigungs- und Interpretations-Problem begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik  aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, dass gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT schlicht nichts über die Invarianz der Lichtgeschwindigkeit.

Mit anderen Worten: Bevor hier Mißverständnisse aufkommen. Es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT. Die Inertialsystem behaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich dass "Kräfte" wirkten oder weniger mystisch ausgedrückt, dass Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformationen. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Physik bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme und Koordinatentransformationen "sind" keine physikalischen Vorgänge, sondern Mathematik. Es wird nicht geklärt, wie die Energiedifferenz und die „Struktur der Energiespeicherung“ über Koordinatentransformationen erzeugt wird oder „verschwindet“. Gemäß Relativitätstheorie gilt: Der Energieinhalt eines Teilchens ist abhängig von der Geschwindigkeit dieses Teilchens und resultiert aus einer Beobachtung, all das relativ aus Sicht eines Inertialsystem behafteten Beobachters.

Wenn sich die Geschwindigkeit ändert, dann ändert sich auch der Energieinhalt. Dies bedeutet: Durch den veränderten Energieinhalt muß sich zwangsläufig auch die innere Struktur der Teilchen ändern, denn die Energie wird „irgendwie“ und „irgendwo“ gespeichert und ist abrufbar. Phänomene wie die Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit können mit der Relativitätstheorie nicht erklärt werden. Die Relativitätstheorie liefert keine physikalische Rechtfertigung, die erklärt, warum und wie Masse größer oder kleiner wird. Die Relativität als solche verliert ihre Bedeutung in der Realität. Siehe exemplarisch einen Teilchenbeschleuniger. Dort nimmt die Masse der beschleunigten Teilchen nicht relativ zum Beobachter sondern (sehr) real zu.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt von der Relativitätstheorie nur der Lorentzfaktor γSRT als statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn übrig:

Inertialsystem behaftet, statisch und eindimensional

Inertialsystem befreit, radialsymmetrisch, dynamisch

 

Der dynamisierte Faktor γdyn ist Inertialsystem befreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" und elegant aus der Elementarkörpergleichung r(t) ableiten:

Siehe zu γdyn die detaillierten Ausführungen und ein erklärendes Video

 

 

Mathematisches Tricksen mit Beschleunigungen

Der relativistische Faktor (Lorentzfaktor) wird im Rahmen der Inertialsystemforderung formalistisch geboren. Für diese Herleitung sind explizit Kräfte und somit Beschleunigungen nicht erlaubt.

Eine formale Ableitung der Geschwindigkeit nach der Zeit im Rahmen der SRT ist zwar mathematisch möglich, entbehrt jedoch der ursprünglichen Axiomatik respektive geforderten Randbedingung. Daher sind die Standardausführungen zu Beschleunigungen in der SRT sinnleer und werden u.a. durch die Nebelkerze des »flachen Minkowski-Raumes« ausgeschmückt.  

 

"Randnotiz"   Strahlende Ladungen

Die Aussage das beschleunigte Ladungen Energie abstrahlen ist zwar richtig aber vollkommen falsch verstanden. Denn die abgestrahlte Energie ist ein Teil der Energie, die von außen eingebracht wurde, um die Ladung zu beschleunigen. Somit zerstrahlt die Ladung selbst nicht, sondern sie kann nur einen Teil der Energie aufnehmen, die ihr von außen zugeführt wurde. Es ist bemerkenswert, äußerst  befremdlich und letztendlich fatal, dass hier seit Generationen eine etablierte Falsch-Annahme selbstzerstrahlungsfähiger beschleunigter Ladungen das gesamte Denken der Physik mitgestaltet hat und mitgestaltet.

 

 

Der methodische Irrtum des Standardmodells

Im wahrsten Sinne des Wortes ist ein Teilchenbeschleuniger das von Menschenhand energetisch dimensionsgrößte Nichtinertialsystem. Dort gilt die Lorentztransformation der SRT nicht. Auch das Relativitätsprinzip gilt nicht für einen Teilchenbeschleuniger. Die kontinuierlich beschleunigten Teilchen - gleichgültig welcher Art - und deren beschleunigte Bezugssysteme - zur formalen Beschreibung -  sind eindeutig von dem Beschleunigersystem unterscheidbar. Die zugeführte Energie, die sich durch die vergrößerte Gesamtenergie der Teilchen manifestiert lässt sich nicht mit der Lorentztransformation beschreiben, da die „Relativität“ unmissverständlich an Inertialsysteme gebunden wäre. Wer nun - mit oder ohne akademischen Grad - glaubt, dass sich in Ermangelung eines bekannten Formalismus bequemerweise die Lorentztransformation für einen Teilchenbeschleuniger anwenden lässt und zu einer eindimensionalen Längenkontraktion sowie zu einer zeitgleichen „relativen“ Massenvergrößerung der beschleunigten Teilchen führt, unterliegt (s)einer naiven Dekadenz. Oder wie sollte man es „anders“ ausdrücken, wenn eine axiomatische Wirklichkeit nach Belieben ausgeblendet wird?

Realphysikalisch motiviertes, Phänomenologie basierendes Ergebnis der Elementarkörpertheorie: Beschleunigte, hochenergetische Teilchen in Beschleunigern, meist Protonen und Elektronen, ändern auf Grund der zugeführten Energie radialsymmetrisch ihre Masse-Radius-Verhältnisse. Das bedeutet: Sie werden mit zunehmender Geschwindigkeit masse-schwerer und proportional radius-kleiner. Die Wirkungsquerschnitte werden mit r², respektive mit 1/m² kleiner.

 

 

Es wird Raum-Energie in Masse abhängige Energie transformiert. Die innere Energie des Teilchens aus Masse- und Raum-Energie ändert sich nicht! Dies wird eindrucksvoll durch die Ladungsinvarianz aufgezeigt. Da die Ladung im Bild der EKT "nichts weiter" als das skalierte Produkt aus Masse und Radius ist.

Die SRT suggeriert, dass sich die innere Energie in Abhängigkeit der (Relativ-)Geschwindigkeit ändert, diese Annahme ist falsch. Es ändert sich "lediglich" das Verhältnis von Masse abhängiger Energie und Raum-Energie, die Summe dieser beiden Energien ist stets konstant. Geschwindigkeitsänderungen liegen Beschleunigungen zu Grunde. Werden geladene Teilchen beschleunigt, so wird kontinuierlich Strahlung freigesetzt. Warum ist das so?

Grundsätzliches zur Strahlung beschleunigter Ladungen

Jede Schwerpunkt-Geschwindigkeitsänderung beruht letztendlich auf Beschleunigung. Die Idee der Eigen-Strahlung auf Grund einer Schwerpunkts-Beschleunigung ist generell irreführend, wie bereits bemerkt, denn Elektronen, Protonen und allgemein Ionen werden ja durch elektrische, magnetische, respektive entsprechende „Wechselfelder“ beschleunigt. Für die einzelne Ladung stellt das Beschleunigersystem ein unendlich großes Energie-Reservoir dar. Das bedeutet, durch die Energiezufuhr wird das innere Verhältnis von Raum-Energie zur Masse-Energie radialsymmetrisch verändert, es kommt des Weiteren zu einer Schwerpunktsbewegung und ein Teil der zugeführten Energie wird wieder in Form von Strahlung abgestrahlt. Die vermeintlich von der Ladung abgestrahlte Energie gehörte nicht zur unbeschleunigten Ladung, sondern zum Beschleunigersystem mit unendlich großem Energie-Reservoir. Die Ladung teilt sozusagen als „Mittler“ die zugeführte äußere Energie in Bewegungsenergie und Strahlungs-Energie auf und „erleidet“ eine im Vergleich zum unbeschleunigten „Teilchen“ eine innere Umgestaltung, salopp formuliert wird es radialsymmetrisch zusammengedrückt und schwerpunkt-bewegt. Auf Grund des praktisch unendlich großen Energiereservoirs des Beschleunigersystems, lässt sich keine Energiebilanz erstellen. Somit ist die Phänomenologie des Gesamt-Vorgangs alles andere als geklärt. Auf die resultierenden Ergebnisse im Sinne des Missverständnisses über die Größenverhältnisse, hat die fehlende Phänomenologie der Strahlung jedoch keinen Einfluß.

Beispiel: Ein Elektron, welches in einem Beschleuniger mit einer Energie von 28 [GeV] ausgestattet ist, besitzt gemäß Masse-Radius-Konstanten-Gleichung [F1] "noch" einen Radius von ≈ 2,8 10-17 [m]. Bringt man nun dieses Elektron zur Kollision mit einem Proton mit einer Energie von 920 [GeV], was einen Protonenradius von ca. 8,6 10-19 [m] zur Folge hat, dann erscheint den Theoretischen Physikern des Standardmodells die Situation wie folgt: Im Standardmodell ist der Protonenradius konstant ≈ 0.84 fm. Somit scheint das Elektron keinen Radius, bzw. einen Radius kleiner als 10-19 [m], zu besitzen. Die Elektronen streuen im Innenbereich des Protons und vermitteln eine Substruktur. So wurden und werden Quarks und Gluonen geboren. Doch diese Geburten sind nichts weiter als Quantenfeld theoriebeladene Artefakte einer inkonsistenten, Realphysik befreiten Wünsch-Dir-Was-Theorie. Obige Energiewerte sind "übliche" Elektron-Proton-Kollisions-Energien.

In der Masse-Radius-gekoppelten Realität sind die Proton-Streuzentren mit Wirkungsquerschnitten kleiner als der Wirkungsquerschnitt des Protons - die theorieinduziert als (Quark-Gluonen)-Substruktur interpretiert werden - die radialsymmetrisch Radius verkleinerten Protonen selbst. Analoges gilt für hochenergetische Elektronen. Nur hier führt das etablierte Denkschema dazu, dass man den Elektronen per Postulat keine Substruktur geben möchte, im Resultat „erleiden“ Elektronen gemäß Standardmodell der Teilchenphysik die phänomenologisch sinnleere Punktverarmung von Masse und elektrischer Ladung. Die daraus resultierenden Divergenzen sind „punktveramungs-inhärent“. Resultierende Unendlichkeiten der Masse-, Ladungs- und Energiedichte werden sodann mittels aufwendigen, mathematisch-axiomatisch „bedenklichen“ Neukonstruktionen – Stichworte Renormierung und Regularisierung – mit eigens für dieses Problem konstruierten, kompensatorisch wirkenden (negativen) Unendlichkeiten zum Verschwinden gebracht.

 

 

Menschliches

Ich komme jetzt zu einem Aspekt, der zwar nichts mit der Mathematik und nichts mit der Physik der Denkmodelle zu tun hat, aber den größten Einfluss darauf nimmt, ob ein »Alternativmodell« überhaupt in eine ernsthafte Diskussion "kommt".

Wenn ein »Alternatives Denkmodell« doch so gut ist, wie propagiert, warum wird dem trotzdem wenig bis keine Beachtung geschenkt? Warum wird es nicht in Fachkreisen beachtet und darüber diskutiert?

Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, dass nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren müsste. Und: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen.

 

"Der größte Fehler, den wir meiner Meinung nach immer wieder begehen, besteht darin, sich von der Theorie zum Modell leiten zu lassen. Nach einer lächerlich langen Zeit ist mir endlich klar geworden, dass etablierte Wissenschaftler tatsächlich davon ausgehen, dass Theorien einem sagen, was wahr ist und was nicht!" Halton Arp

The greatest mistake in my opinion, and the one we continually make, is to let the theory guide the model. After a ridiculously long time it has finally dawned on me that establishment scientists actually proceed on the belief that theories tell you what is true and not true!” 

 

Die etablierte Meinung, dass theoretische Aspekte der Physik und Kosmologie nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede erkenntnistheoretisch wertvolle, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt. Jeder freie Parameter ist ein freier Parameter zuviel. Die beliebte Unart bereits vorhandene sekundäre Größen und Begriffe, durch weitere sekundäre Größen und Begriffe oder weiterer postulierter Substrukturierung vermeintlich zu erklären, führt unweigerlich in die Beliebigkeit. Überlichtschnelle Expansion, seit Jahrzehnten undefinierte, unbeobachtete Theorie-Objekte - wie Dunkle Energie, Dunkle Materie und Dunkle Photonen - lassen sich schnell auf einen Nenner bringen. Es gelten ganz aktuell und verstärkt die Worte Theodor Fontanes :

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt, und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«   

 

 

Wenn Prüflinge gleichzeitig Prüfer sind oder so ähnlich...

Diejenigen, die es am besten und schnellsten, im Hinblick auf Konsistenz und Aussagefähigkeit, untersuchen könn(t)en, ob ein »Alternativmodell« im Sinne des Prinzips der Parsimonie eine Existenzberechtigung hat, sind im 21. Jahrhundert fast ausnahmslos Theoretische Physiker und in diesem Bereich angesiedelte Mathematiker. Diese sind allesamt, sofern sie sich mit den Standardmodellen der Teilchenphysik und Kosmologie beschäftigen, Protagonisten, Apologeten oder Epigonen dieser. Es ist, sowohl für einen unbetreuten Quantenfeldtheoretiker als auch für einen unbetreuten »ART affinen Differentialgeometriker«,  schlicht unmöglich, sich vorstellen zu können, dass es brauchbare Denkmodellalternativen ohne Quantenfelder und Differentialgeometrie geben kann. Das ist keine Übertreibung. Es ist für diese "Standardmodell-Denker" komplett unmöglich. Das bedeutet, diese haben keinen eigenen Primärimpuls etwas derartig »Anderes« auch nur im Geringsten zu betrachten.

Aphoristisch lautet ihr Ausschließungs-Motto...

Wir lesen nicht, wir schreiben selber!   

 

 

Prominente Kritikerin und im gleichem Atemzug »Gatekeeperin«

Sabine Hossenfelder ist eine argumentativ starke Kritikerin diverser Standardmodellaspekte. Sie hätte das mathematische Rüstzeug und das nötige physikalische Fachwissen alternative Denkmodelle zu untersuchen und im Sinne des Prinzips der Parsimonie zu bewerten**.

 

Ausgangssituation

Der Glaube an die naturwissenschaftliche Relevanz des Standardmodells der Elementarteilchenphysik ist geprägt durch die historisch gewachsene Erwartungshaltung. Physik bedeutet(e) für Laien als auch für professionell Interessierte, dass das Streben nach Erkenntnis zu rational logischen Denkmodellen und resultierenden Gleichungen führt, die Messereignisse abbilden und berechnen können, so wie man es von einer exakten Naturwissenschaft selbstverständlich erwartet.

 

Erkenntnisproblem-Beginn = Kopenhagener Deutung der QM

Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen.

Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet(e) nicht nur theoretisch-mathematisches stückweise Monotone, sondern so auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hielt und hält von der Mühe ab, den physikalischen Prozeß zu erkunden, mit dem gewünschten Ergebnis grundsätzlich nur Wahrscheinlichkeitsaussagen bei Quantenprozessen machen zu können.

Albert Einstein schrieb u.a. zur Quantenmechanik:  "…Die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, dass die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, dass die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wären. Damit würde man zugeben, dass dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne.“…A. Einstein, Out of my later years. Phil Lib. New York 1950  Seite 498

Seine fundierte, argumentativ nicht angreifbare Aussage wurde schlicht ignoriert. In der Zeit nach dem zweiten Weltkrieg hatte sich die Kopenhagener Deutung durchgesetzt, in Lehrbüchern war jetzt nur noch die Heisenberg-Bohrsche Quantentheorie ohne kritische Anmerkungen zu finden.

Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten zu (s)einer wissenschaftlichen Isolation. Er war zwar ein "Medienstar" aber wissenschaftlich ab Mitte 30 ohne (große) Bedeutung. Nach seinem Tod wurde - und auch heute  wird - er gerne populärwissenschaftlich instrumentalisiert, um allen möglichen wissenschaftlichen Nonsens ein (Namens-)Gewicht für die mythos- und sensationshungrige Masse zu geben. Wie beispielsweise im Fall postuliert meßbarer Gravitationswellen.

Glaubte Albert Einstein an die reale Existenz der mathematisch generierten Gravitationswellen?

..."Um 1936 schrieb Einstein an seinen engen Freund Max Born und teilte ihm mit, dass er zusammen mit Nathan Rosen zu dem interessanten Ergebnis gekommen sei, dass Gravitationswellen nicht existierten, obwohl man sie in erster Näherung für sicher gehalten hatte. Er hatte schließlich einen Fehler in seiner Arbeit von 1936 mit Rosen gefunden. 1938 kam Einstein erneut zu dem Ergebnis, dass es keine Gravitationswellen geben kann!"... Quelle: Einstein und die Gravitationswellen 1936-1938 Galina Weinstein 2016

Die grundsätzliche Meß-Problematik in Verbindung mit dem SM begann mit der Meß-Interpretation, gemäß quantenfeldtheoretischer Erwartung, der »experimentellen Wirklichkeit« der Beschleuniger. Alle im Teilchenbeschleuniger produzieren Kollisionsereignisse führen zu einer Kaskade von energetischen Möglichkeiten. Es dominierte die theoretische Erwartungshaltung nahezu von Tag eins an, wonach gesucht wurde und wie die Messergebnisse theoriebeladen zu interpretieren sein.

 

**ABER

Sabine Hossenfelder ist sozusagen in ihren Meinungen zu den Aussagen der Standardmodelle „gespalten“. Mal findet sie die Aussagen falsch und nichts sagend, dann wieder sind diverse Probleme nicht der Rede wert. Grundsätzlich gilt für sie, dass, was Sie denkt, ist richtig. Das zu jeder Meinung Gegner und Befürworter existieren, ist ja nichts Neues. Aus wissenschaftlicher und erkenntnistheoretischer Sicht sind jedoch subjektive Meinungen über physikalische Zusammenhänge kategorisch abzulehnen, da letztendlich eine Realphysik orientierte Beschreibung stets in Einklang mit der Beobachtung stehen muß und eine Meinung mit dieser Wissens-Normforderung kohärent ist oder nicht. Frau Hossenfelder betreibt und glaubt an Quantengravitation, wie es ihr passt, was ihr nicht passt, wird mitunter grobsprachlich niedergemacht. Siehe ihre Blog-Artikel und Erwiderungskommentare.

Bemerkenswert ist die Art und Weise wie Frau Hossenfelder ihre Kollegen einschätzt. Sie schreibt in einem Erwiderungs-Kommentar zu Ihrem Blogartikel "CERN produces marketing video for new collider and it’s full of lies" am 7.Dezember 2018 [7.28 AM] u.a.

"Ein Video über ein neues wissenschaftliches Instrument, dessen Finanzierung diskutiert wird, sollte dem Zuschauer einen vernünftigen Eindruck davon vermitteln, was das Instrument leisten wird...

...Natürlich sehen die Physiker, die sich das ansehen, nichts Falsches daran. Denn sie wissen, dass es Blödsinn ist. Und sie haben sich an diesen Schwachsinn gewöhnt, so dass sie denken, dass es einfach zur Tagesordnung gehört. Die moralische Korruption, die hier stattgefunden hat, ist bemerkenswert."

A video about a new scientific instrument whose funding is being discussed should leave the watcher with an reasonable impression what the instrument will do…

Of course the physicists watching this see nothing wrong with this. Because they know it's bullshit. And they have gotten used to this bullshit, so they think it's just business as usual. The moral corruption that has happened here is remarkable.

Im Guardian schrieb sie am 26. September 2022 u.a. Folgendes:

"Stellen Sie sich vor, Sie gehen zu einer zoologischen Konferenz. Die erste Rednerin spricht über ihr 3D-Modell einer 12-beinigen lila Spinne, die in der Arktis lebt. Sie gibt zu, dass es keine Beweise für ihre Existenz gibt, aber es ist eine überprüfbare Hypothese, und sie plädiert dafür, eine Mission auszusenden, um in der Arktis nach Spinnen zu suchen.

Der zweite Redner hat ein Modell für einen fliegenden Regenwurm, der aber nur in Höhlen fliegt. Auch dafür gibt es keine Beweise, aber er plädiert dafür, die Höhlen der Welt zu durchsuchen. Der dritte Referent hat ein Modell für Kraken auf dem Mars. Es ist überprüfbar, betont er.

Hut ab vor den Zoologen, ich habe noch nie von einer solchen Konferenz gehört. Aber auf fast jeder Teilchenphysik-Konferenz gibt es Sitzungen wie diese, nur dass sie mehr Mathematik beinhalten. Unter Physikern ist es üblich geworden, neue Teilchen zu erfinden, für die es keine Beweise gibt, Papiere darüber zu veröffentlichen, weitere Papiere über die Eigenschaften dieser Teilchen zu schreiben und zu verlangen, dass die Hypothese experimentell getestet wird. Viele dieser Tests sind bereits durchgeführt worden, und weitere werden gerade in Auftrag gegeben…

...Unter vier Augen geben viele Physiker zu, dass sie nicht an die Existenz der Teilchen glauben, für deren Suche sie bezahlt werden..."  ..."Sie rechtfertigen ihre Arbeit damit, dass es sich um eine gute Praxis handelt, oder dass ab und zu einer von ihnen zufällig auf eine Idee kommt, die für etwas anderes nützlich ist. Auch ein Heer von Schreibmaschinenaffen kann manchmal einen nützlichen Satz hervorbringen. Aber ist das eine gute Strategie?"... ..."Als ehemalige Teilchenphysikerin macht es mich traurig zu sehen, dass dieses Gebiet zu einer Fabrik für nutzlose akademische Studien geworden ist....

Seit den 1980er Jahren haben die Physiker einen ganzen Teilchenzoo erfunden, dessen Bewohner Namen tragen wie Preonen, Sfermionen, Dyonen, magnetische Monopole, Simps, Wimps, Wimpzillas, Axionen, Flaxionen, Erebonen, Acceleronen, Cornucopionen, Riesenmagnonen, Maximonen, Makros, Wisps, Fips, Branonen, Skyrmionen, Chamäleons, Cuscutonen, Planckonen und sterile Neutrinos, um nur einige zu nennen... Alle Experimente, die nach diesen Teilchen suchten, gingen leer aus...

Experimentelle Teilchenphysiker wissen um das Problem und versuchen, sich von dem zu distanzieren, was ihre Kollegen in der Theorieentwicklung tun. Gleichzeitig profitieren sie davon, denn all diese hypothetischen Teilchen werden in Förderanträgen verwendet, um Experimente zu rechtfertigen. Und so halten auch die Experimentalphysiker ihren Mund. So bleiben Leute wie ich, die das Fachgebiet verlassen haben - ich arbeite jetzt in der Astrophysik - die einzigen, die in der Lage und willens sind, die Situation zu kritisieren...

Es gibt viele Faktoren, die zu diesem traurigen Niedergang der Teilchenphysik beigetragen haben. Zum Teil ist das Problem sozialer Natur: Die meisten Menschen, die in diesem Bereich arbeiten (ich war früher einer von ihnen), glauben wirklich, dass die Erfindung von Teilchen ein gutes Verfahren ist, weil es das ist, was sie gelernt haben, und was alle ihre Kollegen tun.

Aber ich glaube, der größte Beitrag zu diesem Trend ist ein Missverständnis der Wissenschaftsphilosophie von Karl Popper, die, um es kurz zu machen, fordert, dass eine gute wissenschaftliche Idee falsifizierbar sein muss. Die Teilchenphysiker scheinen dies dahingehend missverstanden zu haben, dass jede falsifizierbare Idee auch gute Wissenschaft ist.

In der Vergangenheit waren die Vorhersagen für neue Teilchen nur dann korrekt, wenn ihre Hinzufügung ein Problem mit den bestehenden Theorien löste.

[Die gegenwärtig akzeptierte Theorie der Elementarteilchen - das Standardmodell - erfordert beispielsweise keine neuen Teilchen; sie funktioniert so, wie sie ist, sehr gut.]

[...]Diese Hossenfelder Aussage ist aus diversen, nachweislich dokumentierten Gründen argumentativ falsch, siehe (später***) hierzu ausführlich das Kapitel Standardmodell ...***später, da die umfangreichen Ausführungen viel Zeit in Anspruch nehmen und hier vom eigentlichen Thema wegführen...

[Das Higgs-Boson hingegen wurde benötigt, um ein Problem zu lösen. Die von Paul Dirac vorhergesagten Antiteilchen waren ebenfalls notwendig, um ein Problem zu lösen, ebenso wie die Neutrinos, die von Wolfgang Pauli vorhergesagt wurden.] Die modernen neuen Teilchen lösen keine Probleme.

[...]auch diese Bemerkungen sind inhaltlich mitunter falsch bzw. mehr als fragwürdig, siehe gleichfalls später ausführlich exemplarisch die Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten und Vom postulierten »Theorie-Ereignis« zum »Zauber-Teilchen für alle Fälle«

In einigen Fällen besteht die Aufgabe der neuen Teilchen darin, eine Theorie ästhetisch ansprechender zu gestalten, aber in vielen Fällen besteht ihr Zweck darin, statistische Anomalien zu erklären. Jedes Mal, wenn eine Anomalie gemeldet wird, schreiben Teilchenphysiker schnell Hunderte von Artikeln darüber, wie neue Teilchen die Beobachtung angeblich erklären. Dieses Verhalten ist so üblich, dass es sogar einen Namen dafür gibt: "Ambulance-chasing", nach der anekdotischen Strategie von Anwälten, Krankenwagen zu verfolgen, in der Hoffnung, neue Mandanten zu finden.

Ambulance-chasing" ist eine gute Strategie, um die eigene Karriere in der Teilchenphysik voranzutreiben. Die meisten dieser Arbeiten bestehen die Peer Review und werden veröffentlicht, weil sie technisch nicht falsch sind. Und da die "Ambulance-Chaser" die Arbeiten der anderen zitieren, kann jeder von ihnen schnell Hunderte von Zitaten anhäufen. Aber für den wissenschaftlichen Fortschritt ist das eine schlechte Strategie. Nachdem die Anomalie verschwunden ist, werden diese Arbeiten irrelevant.

Dieses Verfahren, Teilchen zu erfinden und sie dann auszuschließen, wird schon so lange praktiziert, dass es Tausende von Professoren mit festen Stellen und Forschungsgruppen gibt, die davon leben. Es ist zu einer allgemein akzeptierten Praxis in der Physikgemeinschaft geworden. Niemand stellt auch nur in Frage, ob dies sinnvoll ist. Zumindest nicht in der Öffentlichkeit"...

Nun, Frau Hossenfelders Problem ist, dass sie kein alternatives Denkmodell vorweisen kann. Sie war, ist und wird mit großer Wahrscheinlichkeit eine freiwillige Gefangene der Quantengravitation bleiben. Auf diesem Arbeitsfeld sind jedoch bereits alle "Drops gelutscht".

Mehr noch, als die von ihr aufgezeigten Irrwege ihrer Kollegen, lehnt sie jedwede Theoriekonzeption respektive Modell-Theoretiker ab, die sich nicht der bekannten mathematischen Werkzeuge der Standardmodelle bedienen. Ich bin mir sicher, das sie diesbezüglich eine authentische ausgeprägte Aversion hat. Des Weiteren wäre es für sie fatal, wenn sie daran mitwirken würde, einen Paradigmenwechsel einzuleiten, der ihren Quantenfeldglauben gefährdet und letztendlich als unnütz identifiziert. Das tangiert sie nur nicht, weil sie glaubt, dass das so wahrscheinlich ist, wie "eine 12-beinige lila Spinne, die in der Arktis lebt."

 

Die Physiker und Mathematiker, die nicht selbst mit den Standardmodellen assoziiert sind, stehen »Alternativen Denkmodellen« gleichfalls kritisch gegenüber, weil sie sich nicht vorstellen können, das ihre Kollegen-Experten falsch liegen können. Sie denken, dass am Ende Alternativen sich nicht durchsetzten können, weil sie glauben, was die Standardmodellmacher seit Jahrzehnten propagieren, wie ausgereift, aussagekräftig und alternativlos doch ihre Modelle sein. Mitunter schwingt auch die Angst mit, sich mit öffentlich wahrnehmbarer Kritik zu blamieren. Das hat damit zu tun, dass die angewandte Mathematik so komplex und schwierig ist, dass sie erst einmal mit dem Vorwurf konfrontiert werden, dass sie ja gar nicht verstehen, was sie da kritisieren. Das ist auch in den meisten Fällen aus rein mathematisch-formaler Sicht zutreffend.

Des Weiteren gibt es noch die egozentrischen Standardmodell-Kritiker, die neben ihrer Kritik auch gerne kreativ werden würden. Mit oder ohne sachrelevante Vorkenntnisse, fehlt es jedoch nahezu allen, bis auf die »one in a million« - Ausnahme an »schöpferischem Geist« ein brauchbares physikalisches Denkmodell zu entwickeln. Die Fokussierung auf das ich, macht sie in dem Fall, das sie Kenntnis von einem inhaltlich erfolgreichen »Alternativen Denkmodell«  nehmen und das somit höchstwahrscheinlich einer aus ihren Kritiker-Reihen, das schafft(e), was ihnen nicht gelang respektive gelingt und wohl auch perspektivisch nicht gelingen mag, zu Verdrängern und Ignoranten.

Ihre Strategie: Sie vermeiden es, sich mit dem neuen alternativen Denkmodell auseinanderzusetzen. Sie haben Angst sich den Ausführungen im Detail zu nähern, da eine Kaskade von Gefahren besteht. Erst einmal, dass sie für sich erkennen müss(t)en, dass das Modell tauglich ist. Das bereitet vielen einen starken Egoschmerz. Als nächstes wären sie - früher oder später - in der Pflicht auch darüber im Rahmen ihrer Möglichkeiten zu berichten. Insbesondere öffentlich bekannte Kritiker wären dann verpflichtet, auf Grund ihrer medialen Reichweite für eine entsprechende Verbreitung zu sorgen oder müssten sich irgendwann erklären, warum sie das nicht taten. Die Geschichte zeigt, dass diese Vermeidungs-Strategie selten erfolgreich ist. Es mag lange dauern, doch eines Tages kommt das »Neue« ans Tageslicht. Trotz dieser Erkenntnis sind auch Egozentriker in den Reihen der Denkmodellphysiker diesbezüglich beobachtungs- und lernunfähig.

 

Egozentrische Wissenschaftler

Augustin Jean Fresnel [1788 – 1827] bestätigte in seiner ersten Arbeit über die Beugung [5]  ausdrücklich, dass er sich überzeugt habe, dass gebeugtes Licht ausschließlich von den Kanten kommt, was er später nie berücksichtigte. Die Existenz einer leuchtenden Kante als physikalisches Phänomen, war zur damaligen Zeit allgemein anerkannt. Die Folgerung, dass gebeugtes Licht nicht vom gesamten Spalt kommt, war selbstverständlich, sie brauchte nicht besonders betont zu werden. Fresnel konnte mit dem von Fourier stammenden Theorem Grenzfälle der Beugung berechnen. Seine Messergebnisse teilte er jedoch nur mit, wenn sie mit seiner Theorie hinreichend übereinstimmten. War das nicht mehr der Fall, so brach er die Mitteilung ab, ohne die Diskrepanzen anzumerken.

[5] A. J. Fresnel, Oeuvres Complétes I. Paris 1866; Abhandlungen über die Beugung des Lichtes. Ostwalds Klassiker Nr. 215, Engelmann, Leipzig 1926.

Am Rande bemerkt: Wie unvollständig die deutsche Wikipedia-Ausführung zu Augustin Jean Fresnel im Vergleich zur englischsprachigen und zur französischen ist, wirft diverse Fragen zur Informationsverbreitung auf. Auch hier ist Deutschland mittlerweile ein Entwicklungsland.  

 

 

Bei den Kritikern, die ihre Kritik professionalisiert haben und Geld mit Büchern, Vorträgern etc. diesbezüglich verdienen, geht es offensichtlich nicht nur um Egoproblematiken sondern auch um Materielles. Spätestens an dem Tag, wo jedem klar ist, dass die alten Konzepte nicht mehr relevant sind und das nicht nur in Fachkreisen sondern auch populärwissenschaftlich kommuniziert wird, ist auch die diesbezügliche Kritik obsolet. Das bedeutet - leicht verständlich - sie verdienen nichts mehr mit ihrer Kritik an den überholten Denkmodellen.

 

Interdisziplinär betrachtet

Professionelle Kritiker leben vom Stillstand 

»Alternative (Online) Medien« sind – bei genauer Sicht - in der jetzigen Form keine nennenswerte Alternative. Viele haben ihre Regierungs- und Gesellschaftskritik zum Geschäftsmodell hin entwickelt. Täglich benennen sie zwar Mißstände und Irrationalitäten aller Art der Herrschenden und Einflussnehmenden, doch sie belassen es dabei, kritische Worte zu formulieren. Ihr Geschäftsmodell-Widerstand verpufft in „hauseigenen“ Kommentarfeld-Blasen, die von einer überschaubaren Anzahl von Wiederholungsschreibern täglich gefüttert werden. Statt auf die Straße zu gehen und neue realitätsbasierende Gruppierungen zu bilden, entladen sich die Leser und Kommentarfeldfüller inflationär, mittels - mehr oder weniger - informativen, semi-veröffentlichten Aussagen, die außerhalb der Stammleserschaft des „individuell“ kritischen Mediums von niemanden wahrgenommen werden. Statt die Energie der selbsterlebten, berechtigten Frustration und Wut effektiv zu kanalisieren und real werden zu lassen, entleeren sie sich immer wieder mit nicht nachhaltigen, in der Wirkung bedeutungslosen Kommentierungen „egonett“ sprich zur eigenen („schnellen“) Gewissensberuhigung.

 

Psychologie der Masse(n)

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrsch(t)en, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten.

Fatalerweise avancierten aus erkenntnistheoretischer Sicht Differentialgeometrie- und Quantenfeld-Fantasien zu neuen Denkdogmen. Heute bestimmen nicht messbare postulierte Theorieobjekte, deren gewünschte mathematische Symmetrien und willküraffine Substrukturthesen das Denken der Theoretischen Grundlagenphysik. Dass diese Konstruktionen u.a. weder konsistent noch alternativlos sind, wird im Folgenden ausgeführt.     

Inhalts-analytisch erstaunlich ist die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell), sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) keinerlei rational logischer Kritik standhalten, wie im Zusammenhang mit der Elementarkörpertheorie (EKT) an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische "Argument", dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos sind, wird zum finalen Schlag ins Felde geführt. Dieses schwerwiegende allgemein-psychologische "Argument" ist sehr gut erprobt, wie allgemein bekannt die Beständigkeit und Macht der irrationalen Weltreligionen leidvoll bestätigen. Postulierte Quarks oder postulierte Superpartner sind exemplarisch wie Adam und Eva. SM und Artverwandtes sind heilige Schriften der Theoretiker. Dort herrscht die Lagrangedichte und produziert stetig Willkürliches

Entstehungsmythen, egal welcher Ausrichtung, gehören nicht in Denkmodelle zur Materiebildung. Die Welt der Götter ist "bestenfalls" ein unterhaltsames Psycho-Konzept für Glaubensabhängige aber kein meßtechnisch erfassbares Objekt. Die Unterschiede zwischen »Geistern und Dämonen« und »Dunkler Energie und Dunkler Materie« sind marginal. Die Verdrängung realphysikorientierter Plausibilität zu Gunsten Logik beraubter Denkmodelle (ΛCDM-Modell, SM, SUSY) charakterisiert ein seit Jahrzehnten anhaltendes modernes Trauerspiel. Wir erleben mit der heutigen etablierten Standardmodellphysik ein erneutes, doch diesmal deutlich komplexeres, Phlogiston-Drama. "Willkommen" im Barock 2.0 sozusagen.

 

Zur Erinnerung, Georg Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der Phlogistontheorie… Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen. Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen. Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier „ersetzte“ dann das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, dass das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

Selbstversuch:  Ersetze Phlogiston durch „moderne Theorieobjekte“, wie Quarks, Gluonen, dunkle Materie, dunkle Energie, Neutrinos,...

 

Nicht die Mathematik, die generell nicht zwischen Staub und Staubsauger unterscheiden kann, ist "falsch", sondern die mathematisch formulierten, willkürlich postulierten Denkkonstrukte sind es, die bei genauer Sicht schon einfachster Logik entbehren und letztendlich keinen Erkenntnisgewinn generieren.

Die etablierte Meinung, dass theoretische Aspekte der Physik nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede nachhaltig Erkenntnis bringende, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt.

 

 

Psychologie und Notwendigkeit alternativer Denkmodelle

Der Kritik eines bestehenden Denkmodells „folgt“ zwingend ein neues Denkmodell, sofern ein nachhaltiger Erkenntnisgewinn angestrebt wird. Jede noch so fundierte Kritik bedarf einer konstruktiven Alternative, solange diese nicht existiert „verpufft“ selbst die „beste“ Kritik.

Natur kann nur addieren oder subtrahieren. Eine gesicherte »höhere mathematische Realität« existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist, lässt sich mit den Mitteln der Mathematik nicht entscheiden (siehe unstrittig-exemplarisch Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.

"Hier" beginnt das fundamentale Mißverständnis über das, was Physik aus einem naturphilosophischen, respektive erkenntnistheoretischen Blickwinkel sein sollte, ohne den nützlichen, formalisierten Charakter der physikalischen Beschreibung zu verlieren. Den komplizierten Standardmodellausführungen fehlen letztendlich meist konkrete Berechnungsmöglichkeiten oder diese führen in einigen Fällen zwar zu Ergebnissen, doch der mathematische Weg zum "Rechenergebnis" bleibt phänomenologisch unverstanden.

Die Standard-Annahme der Standardmodelle, dass komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt meßbar sind.

 

Schon Ernst Mach (1838 - 1916) bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte."   Ernst Mach, Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit »einer Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird hier an verschiedenen Stellen und in den Kapiteln zum Standardmodell der Teilchenphysik (SM) und zum Higgs-Formalismus detailliert ausgeführt.

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den aktuellen theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.

Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von „Wissenschaftlern“ trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

 

 

Gibt es Schnittmengen zwischen dem Alternativmodell und den Standardmodellen?

Versuchsergebnisse und Versuchsergebnisinterpretationen

Auch wenn das erst einmal, insbesondere aus der Sicht von Standardmodellprotagonisten, erstaunlich oder gar unmöglich klingt, aber die Elementarkörpertheorie (EKT) wird sowohl experimentell im Teilchenbeschleuniger, in allen bekannten  - egal in welcher Kombination -  Protonen-Elektronen - Streuexeprimenten sowie auf kosmischen Skalen bestätigt, das wird im weiteren Verlauf der Ausführungen deutlich.

 

Denkmodell der Masse-Raum-Kopplung
und
"Gemeinsamkeiten" mit den Standardmodellen und der ursprünglichen Quantenmechanik

 

SM-Ausgangssituation

Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann.

 

Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert.

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

 

Ausgangssituation Mass-Raum-Kopplung

Die grundsätzliche Denkmodell-Forderung besteht darin, dass minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie in ihrer Entstehung als Elementarkörper abbilden.

 

Elementarkörper-Entstehungsgleichungen 

In diesem Sinne gibt es auch im Denkmodell der Elementarkörper den masse- und raumlosen Zustand (als Energieäquivalent). Das bedeutet: Das (kodierte) Information eine Energieform ist. Interessanterweise hat dies keinen Einfluss auf die Wechselwirkungen der Elementarkörper respektive der daraus konstruierten Materie im Hinblick auf den Wechselwirkungs-Formalismus.

Wie später erläutert wird, muss zwischen der inneren Dynamik des Elementarkörpers (EK) und der Informations- respektive Energie-Translation mit Lichtgeschwindigkeit in "Gestalt" von Photonen phänomenologisch unterschieden werden.

                                                                                                    

                                                                                                                               

 

           

Information als materieller Zustand = Elementarkörper

   

m0 · r0 = FEK = const. : Masse-Radius-Konstantengleichung

 

 

 

 

Urknall

Inflationär ohne Masse(n) im Raum und Masse-Raum gekoppelt

 

Urknall-These-Standardmodell

Ohne hier auf die zahlreichen Details, insbesondere die komplizierte und komplexe Mathematik (Stichworte Differentialgeometrie, Friedmann-Lemaître-Robertson-Walker-Metrik) explizit einzugehen und ohne die notwendige These des Standardmodells der Kosmologie (Lambda-CDM-Modell) der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit für eine ultrakurze Zeitspanne) an dieser Stelle bereits zu thematisieren, ist der Raum von der Materie in den Standardmodellen zwingend entkoppelt worden. 

 

Das theoretisch „einfachste“ ΛCDM-Modell basiert auf sechs freien Parametern: In seiner Minimalversion stützt es sich auf 3 Parameter (Ωb, ΩΛ, H0) zur Beschreibung der Entwicklung des Hintergrunduniversums, das als räumlich euklidische FL-Raumzeit angenommen wird (so dass ΩK = 0, Ωcdm = 1 - Ωb - ΩΛ und Ωr durch die mittlere Temperatur des CMB und der Neutrinos gegeben sind), 2 Parameter zur Beschreibung der anfänglichen Störungen (Amplitude und Index des Leistungsspektrums) und 1 Parameter zur Beschreibung der Reionisierung.

 

Der postulierte Urknall

Die ursprüngliche Urknall-Theorie, dass das Universum vor endlicher Zeit aus einer Singularität “entsprang“, stammt vom belgischen Abbé Georges Edouard Lemaitre, einem wissenschaftlich ausgebildeten Mann der katholischen Kirche, der schon in jungen Jahren von der Idee beflügelt war, eine Theorie zu schaffen, mit der Wissenschaft und katholische Schöpfungslehre in Übereinstimmung gebracht werden kann.  

Das Konzept eines expandierenden Universums, wie wir es heute kennen, war von dem russischen Wissenschaftler Alexander Friedmann und Lemaitre unabhängig voneinander entwickelt worden. Mit ihren Lösungen wendeten sie die Allgemeine Relativitätstheorie (ART) auf das kosmische Medium an. Ihre Arbeiten über das Thema wurden in den Jahren 1922 und 1924 sowie auch 1927 und 1931 veröffentlicht. Die (scheinbare) Rotverschiebungs-Helligkeits-Relation wurde von Edwin Hubble im Jahre 1929 entdeckt und erklärte das neue theoretische Bild. Das so genannte Hubble-Gesetz wurde sowohl von Friedmanns und Lemaitres Modellen theoretisch bestätigt. Es wurde sofort auf den Status einer „beobachteten“ Entdeckung eines expandierenden Universums gehoben, obwohl die Idee einer Expansion vor allem eine theoretische Idee ist. Hubbles Beobachtungen sind konsistent mit dieser Idee, aber kein Beweis dafür. Hubble selbst war sich dessen bewusst und suchte während seines ganzen Lebens eine Antwort auf die gestellte Frage nach seiner Entdeckung: Was ist die Ursache für die Rotverschiebung?

Lemaitres Überlegungen waren im Sinne der katholischen Kirche, die in ihnen die glänzende Bestätigung der Schöpfungsidee sah. Nachdem diese Idee anfangs unter den Wissenschaftlern keine Anerkennung fand und man Lemaitre zum Teil verspottete, wurde er im Dezember 1940 aufgrund seiner wissenschaftlichen Leistungen an die Päpstliche Akademie der Wissenschaften berufen. Auf einer Tagung im November 1951 befürwortete die Päpstliche Akademie der Wissenschaften Lemaitres Theorie. Papst Pius XII. sprach am 23.11.1951 vor den Mitgliedern der Akademie und erklärte in einem abschließenden Vortrag, dass der mit dem Urknall zeitlich festlegbare Anfang der Welt einem göttlichen Schöpfungsakt entspränge. Die Ergebnisse "moderner Wissenschaft", auf die sich Papst Pius XII. beruft, wurden so mit der kirchlichen Doktrin zusammengeführt. Von 1960 bis zu seinem Tod war Lemaitre Präsident der Akademie. Mit dem Amt verbunden war die Verleihung des Titels eines päpstlichen Prälaten. 1964 wurde Abbé Georges Edouard Lemaitre emeritiert.

Die Geschichte der Urknalltheorie ist so verlaufen, dass neue hypothetische „Objekte“ eingeführt werden mussten, für die es keine Belege gab und nach wie vor gibt, außer dass sie die zugrunde liegende Theorie rette(te)n. Der Begriff »Inflation«, der ein Feld und eine Energie beinhaltet, die völlig unbekannt sind, wurde Anfang der 1980er Jahre eingeführt, um den Urknall trotz vieler sehr schwerwiegender Widersprüche in der Beobachtung zu halten. Bald darauf kam die nichtbarionische »Dunkle Materie« als postulierte Theorie-"Entität" hinzu und in den 1998er Jahren die »Dunkle Energie«. Die dunkle Energie ist eine postulierte, nicht detektierbare (!?!), Form von Energie, die das Universum auf großen Skalen beeinflusst. Ihr postulierter Haupteffekt besteht darin, dass sie die beschleunigte Expansion des Universums auslöst respektive aufrecht erhält. Der Begriff wurde 1998 von dem Astrophysiker Michael S.Turner geprägt.

Das Vorgehen erinnert sehr an die Epizyklen des ptolemäischen Weltbildes

                                                                                          

Geozentrisches Weltbild - Epizykeltheorie

Die Epizykeltheorie arbeitete mit 3 freien Parametern, war mathematisch „richtig“, phänomenologisch falsch und die Objekte der Beschreibung waren (sind) sichtbar.

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, dass die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, dass die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

 

                                                                                                                          

                    

 

                     

                                                                                   

Raumzeit

Das gesamte gegenwärtige physikalische Weltbild baut auf dem Paradigma der »(physikalischen) Raumzeit« auf. Die Theorie des geschlossenen sich ausdehnenden Universums und die Urknalltheorie basieren auf mathematischen Berechnungen dieser konstruierten vierdimensionalen Raumzeit. Die vierdimensionale »(physikalische) Raumzeit« wurde nicht von Albert Einstein entwickelt, sondern vom Mathematiker Hermann Minkowski (1864-1909). Minkowski hielt am 21.09.1908 in Köln auf der 80. Versammlung der Deutschen Gesellschaft der Naturforscher und Ärzte seinen Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann. Aufgrund des Relativitätsprinzips und der daraus folgenden Invarianz gegenüber Lorentztransformationen trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Sie lassen sich im Bereich schwacher Krümmung durch lineare Gleichungen annähern, in denen sich das Newtonsche Gravitationsgesetz wieder finden lässt. Phänomenologisch bleibt diese mathematisch formulierte Raumzeitkrümmung ohne Anschauung. Die Raumzeit ist nicht sinnlich erfahrbar und auch nicht apparativ meßbar. Die Raumzeit ist ein rein mathematisches Konstrukt.

Am Rande bemerkt: Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass insbesondere der Laie mittels der deutschen Wikipedia im wahrsten Sinne des Wortes unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren. Warum ist die deutsche Wikipedia „so schlecht“ im Verhältnis zur englischen? Dass Englisch die Sprache der Wissenschaft ist, daran kann es nicht liegen, da die Idee von Wikipedia ja die Vermittlung von Information sein soll. „Brauchen“ deutschsprachige Interessierte keine ausreichende, themen-adäquate Information? Kein Wunder, wenn sich Deutschlesende alles Mögliche zu diesem Thema „zusammenspinnen“, da ihnen nicht einmal die Grundlagen vollständig und meist unreflektiert von deutschen Wikipedia-Autoren vermittelt werden. Siehe hierzu weiterführend und themenübergreifend den Beitrag: Die Grenzen meiner Sprache sind die Grenzen meiner Welt Vom Umgang der Deutschen mit ihrer Sprache und wo die Pädagogik versagt hat von Marita Ellenbürger, November 2015.

Der Kosmos ist kein Versuchslabor

Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Die menschliche Beobachtungs-Zeitspanne ist verglichen mit den Zeitspannen, in denen sich kosmische Bewegungen abspielten und abspielen, extrem klein. Mit den Angaben aus der menschlichen Beobachtungsdauer Annahmen zu begründen, ist wortwörtlich „weit hergeholt“ um es mal salopp zu formulieren. Alle derzeitigen vermeintlich empirischen Messungen sind stark (Urknall-)theoriebeladen. Postulierte Zeitspannen, Entfernungen und Energiedichten sind subjektiv-theorieabhängig.

Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht Menschen, die zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwarten, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Verbreitungsstrategie von Objekt- und Entstehungsmythen

Es beginnt grundsätzlich „ordentlich“, siehe exemplarisch das youtube-video Simulation of the neutron star coalescence GW170817. Die Beschreibung seitens des Max-Planck-Instituts für Gravitationsphysik (Albert-Einstein-Institut) beginnt mit …“The video shows a numerical simulation“…

Doch keiner der Verkünder, ob Wissenschaftler, Wissenschaftsjournalist, Nachrichtensprecher, …,  „meint“ letztendlich, dass es sich, sowohl theoretisch als auch physisch, um nichts weiter als Hypothesen und Simulationen handelt. Stark theoriebeladene Wünsche werden „im guten (doppeldeutig) materiellen Glauben“ materialisiert. Obwohl jeder sehen könnte, was er nie wirklich sehen wird…

Wahrnehmungsmöglichkeiten

In unserem Sonnensystem gibt es weder Neutronensterne, Gamma Ray Bursts (GRBs) noch Schwarze Löcher (respektive „Anomalien“, die als solche interpretiert werden können).

Eine Liste postuliert „erdnächster“ Schwarzer-Löcher-Kandidaten findet sich unter https://en.wikipedia.org/wiki/List_of_nearest_black_holes mit einer „kürzesten“ Entfernung von 2800 Lichtjahren. Zum Vergleich: Der nächste Stern „aus unserer Sicht“ ist mit 4,24 Lichtjahren Proxima Centauri (https://de.wikipedia.org/wiki/Proxima_Centauri). Objekt- und Entfernungs-Angaben beziehen sich auf die Sicht des ΛCDM-Modells.

Das angesiedelte soziologische Wahrnehmungsproblem „besteht“ darin, dass hier, nach einfachem psychologischem Glaubens-Muster, diverse postulierte Theorieobjekte unterschiedlichster Art, seit Jahrzehnten - der mit rudimentärem Wissen ausgestatteten Bevölkerung - als 100% real existent sprichwörtlich verkauft werden.  

Hier kommen Wissens-Vermittler ins Spiel, die möglichst objektiv erst einmal die Sachlage erklären (können). Diese Aufgabe ist bezüglich der physikalischen Standardmodelle extrem schwierig, da viele fundamentale Aspekte keinen Plausibilitätsbetrachtungen entsprechen, die sinnlich wahrnehmbar sind. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

 

Raumzeit - Was expandiert?

Das Postulat der Raumzeit besagt, dass es im Rahmen der (formalisierten) Betrachtung der Allgemeinen Relativitätstheorie (ART) Zeit und Raum nur als Einheit gibt. Im Rahmen der ART expandiert nicht ein sinnlich wahrnehmbarer Raum bzw. in vereinfachter Anschauungs-Form eine Ballonoberfläche, sondern das mathematische Konstrukt der Raumzeit. Es existiert kein einzigartiger Ursprung, sondern die Raumzeit expandiert überall.

Weiter wird willkürlich festgelegt: Es ist zwar die Raumzeit selbst, die sich ausdehnt, doch die Galaxien werden (nur) mitbewegt. Etabliertes Postulat: Gravitativ gebundene Objekte wie Galaxien oder Galaxienhaufen expandieren nicht. Hier stellt sich die rational-analytische Frage, wie, wo, warum und wann der Grenzübergang von „etwas“ nicht raumzeitexpandierendem zu etwas raumzeitexpandierenden stattfindet? Diese Frage wird von den Vertretern des ΛCDM-Modells nicht beantwortet. Bezogen auf die populärwissenschaftlich gern verwiesene Luft-Ballon-Analogie expandieren, konträr zu diesem Postulat, für den Beobachter auch die Markierungen auf der Ballonoberfläche.

Nach heutigen Vorstellungen ist im Vergleich zur Radiusvergrößerung der Luftballonvorstellung die kosmische Expansion beschleunigt. Im „Ballonverständnis“ expandiert der Ballon gleichmäßig oder verlangsamt (bis zu einem materialbedingten Maximum, bevor der Ballon platzt). Verschwiegen werden in der Analogie auch die (überlichtschnelle, zeitlich stark begrenzte) postulierte, theorienotwendige Inflationsphase, sowie die Annahmen und Wirkungen der postulierten Dunklen Materie und postuliert Dunklen Energie, die im Ballonmodell nicht vorkommen.

 

 

Allgemeine Relativitätstheorie Alternativen

Losgelöst von der Elementarkörpertheorie existieren alternative Denkansätze, die gleichfalls kosmologische Beobachtungen sowohl phänomenologisch als auch formal beschreiben. Das bedeutet, dass die Allgemeine Relativitätstheorie (ART) nicht die einzige Theorie ist, die zur Interpretation und Berechnung „brauchbar“ ist, wie gerne vom »Mainstream« suggeriert wird.

Inwieweit die ART oder alternative Theorien jedoch die realphysikalische Wirklichkeit abbilden, "steht auf einem anderen Blatt". Bedeutet: Bei allen kosmologischen Beobachtungen handelt es sich eben nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark theoriebeladen „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.   

Um einen konkreten Eindruck von der Qualität der Alternativen zu bekommen, wird folgend auf die „Originalarbeit“ verwiesen. Ob Periheldrehung des Merkur, „Verlangsamung der Zeit“ und Lichtablenkung auf Grund „gravitativer Einflüsse“ oder Gravitationswellen, zu jeder (vermeintlichen) Beobachtung existieren ART-„rechenbare“ Alternativen, die zu gleichen oder sehr ähnlichen Rechenergebnissen führen. 

Rudolf Kießlinger (1921 - 2011) dürfte den meisten Interessierten vollkommen unbekannt sein. Kießlinger zeigt eindrucksvoll, wie eine Erweiterung des Newtonschen Gravitationsgesetzes die ART als nur 2. Näherung „dastehen“ lässt.

U.a. mit der Konsequenz, dass es argumentativ keine Schwarzen Löcher geben kann. Sowohl die Periheldrehung des Merkurs, die gravitative Lichtablenkung, die gravitative Rotverschiebung und einige weitere Aspekte wie die Hintergrundstrahlung werden von Kiesslinger alternativ zum Standardmodell der Kosmologie, respektive zur ART phänomenologisiert und teils explizit berechnet. Details zur Motivation, Idee, Herleitung und einer Fülle von Konsequenzen siehe  Gravitation verknüpft mit Eigenschaften des Lichts 1993/94, 2010 

 

Noch einige Worte zu einem der Hauptprobleme der ART...

Die »thermodynamische Unverträglichkeit«

..."Sowohl Stephen Hawking als auch Sir Roger Penrose kümmern sich auffällig wenig um zeitgenössische Thermodynamik! Ihr diesbezügliches Weltbild endet bei Boltzmanns früh gescheitertem Versuch, die mechanistische Tradition der Lagrange-Hamiltonschen Theorie in der Thermodynamik zu verankern.

...die Fata Morgana: die Verbindung zwischen Information und Entropie. Zwei Worte, die man – laut John von Neumann  – beide nicht versteht, werden durch einen Logarithmus und eine dimensionsstiftende Konstante miteinander verknüpft. Was noch mehr verblüfft: Viele Kosmologen glauben allen Ernstes, dadurch die Thermodynamik und deren ganzen begrifflichen Apparat mit ins Boot zu holen. Daher Hawkings ‚Logik’: „Das Problem in Bekensteins Argumentation war, dass ein Schwarzes Loch, besäße es eine endliche Entropie proportional zur Fläche seines Ereignishorizonts, auch eine endliche Temperatur haben müsste. Daraus würde folgen, dass sich ein Schwarzes Loch bei irgendeiner Temperatur ungleich Null mit der thermischen Strahlung im Gleichgewicht befinden könnte. Doch nach klassischen Begriffen ist kein solches Gleichgewicht möglich, da das Schwarze Loch… absorbieren würde, ohne… zu emittieren.“

...Was die internationale Elite der theoretischen Kosmologen nie zur Kenntnis genommen hat – weil ihre Nachwuchsleute bei der vielen Konkurrenz wahrscheinlich nie Gibbs’ Hauptwerke studiert haben – war die simple Tatsache, dass ‚ihre Entropie’ eher eine 'Shannonsche Entropie' ist, nämlich Informationen betreffend, indes keine thermodynamische Entropie. Somit ist sie keiner absoluten, d.h. thermodynamischen Temperatur konjugiert. Folglich existiert auch kein Problem mit einer thermischen Strahlung. Natürlich steht es jedermann frei – wie Bekenstein und Hawking – Formeln für ‚ihre Entropie und Temperatur’ z. B. aus dem ›Ereignishorizont‹ ‚abzuleiten’. Nur mit der Systemtheorie nach Gibbs, Falk und anderen hat das alles nichts zu tun! Dort ist die Entropie eine ›Allgemeinphysikalische Größe‹ mit eigenständiger Bedeutung, die Temperatur T nichts anderes als die partielle Ableitung (∂E/∂S)A, B, C…bei konstant gehaltenen ‚aktiven’ ›Allgemeinphysikalischen Größen‹ A, B, C … des betreffenden Systems. Zudem sind die Hauptsätze der Thermodynamik und die daraus abgeleiteten Bewegungsgleichungen mit Prozessgrößen formuliert, die lokal nichts mit der Einstein-Geometrie der ART zu tun haben. Das führt sofort zum Problem, inwieweit der Zweite Hauptsatz überhaupt mit der ART kompatibel ist...

...Wenn man unbedingt eine zur Information konjugierte 'informelle Temperatur' will, muss man sie aus der 'Informationstheorie' ableiten; gewiss hat sie aber nichts mit der Kelvintemperatur zu tun und somit schon gar nichts mit physikalischen Strahlungsprozessen...

...Das ‚Urknall-Problem’ als ‚Ur-Singularität’ tritt theoretisch nur dann auf, wenn Einsteins Credo (: Irreversibilität sei eine Illusion) zutrifft. Dieser Schluss bedeutet dann aber, dass man die Thermodynamik von vorneherein konsequent negiert und sich auf die lupenreine Hamilton-Mechanik als Basis der ART beschränkt, oder zumindest nur isentrope Prozesse (keine Entropieänderung) ins Auge fasst, um wenigstens das Phänomen der Hintergrundstrahlung zu ‚retten’...

Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie von Vilmos Balogh

 

 

Masse-Raum-gekoppelter Ursprung des Universums

Die Elementarkörpertheorie bietet sowohl für mikroskopische Objekte als auch für komplexe, dynamisch-verschachtelte Strukturen, bis hin zum »Universum«, einen Ergebnis orientierten Rahmen, in dem mit wenigen Annahmen bemerkenswerte analytische Ausdrücke abgeleitet werden können. In Analogie lassen sich die Entstehungsgleichungen für den Elementarkörper auf kosmische Verhältnisse anwenden... 

Elementarkörper-Entstehungsgleichungen 

 

Ein Ergebnis dieser Betrachtung ist die Berechnung der Masse des Universums in Abhängigkeit der Zeit (Alter des Universums) Gleichung [MUNI]. Ohne an dieser Stelle näher auf die notwendigen Elementarkörpertheorie basierenden phänomenologischen Hintergründe einzugehen, folgt mittels der Elementarkörper-Entwicklungsgleichung r(t) eine Abschätzung der oberen zeitabhängigen Radius-Grenze, die mit der gleichfalls Elementarkörpertheorie basierenden Idee der verkörperten Gravitationskonstanten zum allgemeinen Gravitationsradius und zu einem konkreten mathematischen Ausdruck führt, mit dem sich die Masse des Universums mUniversum(t) alleinig aus dem Alter des Universums ergibt.

 

Der Fehler zu Gleichung [P2m], bei genauer Kenntnis der maximalen Universumsmasse***, beträgt hier (zeitabhängig) ~ -5%.

Diese Elementarkörper basierende Abschätzung, die in sehr guter Übereinstimmung mit den Schätzwerten des Standardmodells der Kosmologie ist: mUniversum ~ 1·1053 [kg], deutet an, welche Macht in realphysikalisch orientierten, phänomenologisch begründeten Plausibilitätsbetrachtungen "steckt", die im Gesamtbild konträr zu differential-geometrischen komplexen Formalismen und resultierenden Raum-Zeit-Kontinuum-Fantasien, mittels Masse-Raum-Kopplung letztendlich zum Paradigmenwechsel führen. Denn im Gegensatz zur "gängigen" Urknall-Theorie notwendigen teils überlichtschnellen Materie entkoppelten Expansion des Raumes, basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine überlichtschnelle Ausbreitung besitzt.

 

 

***Die Berechnung der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter«: Protonenmasse, Elektronenmasse, Rydberg-Energie und der Gravitationskonstanten verkörpert durch das Elementarquant,…

Wasserstoff-Parameter und die Verbindung zwischen dem Kleinsten und dem Größten

Was könnte nahe liegender sein als die Alleinstellungsmerkmale des Wasserstoffatoms als Grundlage für die Verbindung zwischen dem denkbar kleinsten Körper, dem so genannten Elementarquant (auch faktorisiert als Planckgrössen) und Universumsgrössen zu verwenden. Die (faktorisierten) Planckgrössen repräsentieren die verkörperte Gravitationskonstante. Das nur die doppelte Plancklänge als Radius rG = 2 · rPl und nur die inhärent doppelte Planckmasse als Masse mG = 2 · mPl  energetisch den "längenkleinsten", Radius-Masse-gekoppelten Einzelkörper {G} bilden können, ergibt sich zwanglos aus dem Vergleich von Masse-Radius-gekoppelter Gesamt-Energie und Gravitations-Energie:

Korrespondierend gedacht ist das Verhältnis von Protonenmasse zu Elektronenmasse (mp/me) ein maßsystemunabhängiger, einzigartiger Bildungsparameter. Eine Addition von "Plancklänge" (rG = 2 · rPl) und Universum macht keinen "beschreibenden" Sinn, weder phänomenologisch noch mathematisch, also kommt hier als "nächste einfache" mathematische Rechenoperation die Multiplikation in Betracht (rG  · rUni). Die "längen"-charakteristische Größe ist Wasserstoff-Atom basierend der Rydberg-Energie inhärente Radius der Rydberg-Energie-Verkörperung, rRy. Dimensionsanalytisch kommt also in der kleinsten Potenz (rRy/2) in der 2.Potenz vor, damit dies rG  · rUni entspricht. Das Verhältnis (mp/me) beschreibt ein H-Atom, also folgt gemäß einfachster mathematischer Konstruktionsmöglichkeit : (rRy/2)² · (mp/me)²  =  (rG  · rUni)  [U1]. Die Grundgedanken, die zu der Gleichung [U1] führen, sind intuitiv-logisch. Jeder Folgegedanke ist, mit der strikten Vorgabe, sowohl Realobjekt orientiert phänomenologisch als auch mathematisch minimalistisch zu sein , "zwingend".    

 

 

Das obige "Größen" korrespondierend den längen-kleinsten Körper {G} und das "maximal Makroskopische" (Universum) qualitativ und quantitativ bestimmen, ist physikalisch und philosophisch ein enormer Erkenntnisgewinn.

Maximaler Radius des Universums

Der Radius des Universums ist gemäß Gleichung [U1] von der Grundzustands-Energie des Wasserstoffatoms und dem Verhältnis von Protonenmasse zu Elektronenmasse, sowie (indirekt) von der Gravitationskonstanten γG abhängig, die sich explizit durch den längenkleinsten, massereichsten mikroskopischen Elementar-Körper {G} mit der Masse mG und dem Radius rG manifestiert.

Es ergibt sich ein maximaler Universumsradius von rUni = 8,78507806 · 1025  [m].

 

 

Maximale Masse des Universums

Die Masse des Universums ergibt sich aus der Kosmischen Konstantengleichung [K1], die phänomenologisch auf der radius-masse-gekoppelten, korrespondierenden Selbstähnlichkeit von mikroskopischen Einzel-Körper und makroskopischen Vielteilchen-Körper basiert:

Maximale Masse des Universums : mUni = 1,1830721741 1053  [kg]

 

 

Alter des maximal ausgedehnten Universums

Mit der Extremwert-Bedingung für r(t) = rUni · sin(c·t/rUni) folgt:    tmax = (π/2c) · rUni

Daraus folgt dann: tmax =   4,6030405299 · 1017 [s]  ~ 14,5961 Milliarden Jahre

 

Ergebnisgleiche Berechnungsalternative:

 

Aktueller Zustand des Universums  

Es erscheint auf den ersten Blick widersprüchlich mit dem Alter des Universums "zu rechnen", welches das ΛCDM-Modell propagiert. Um jedoch aufzuzeigen, wie einfach Elementarkörpertheorie basierende Gleichungen aussehen und welche quantitative Kraft in ihnen steckt, lohnt es sich auch hier als Vergleich mit dem Alters-Wert des Universums des ΛCDM-Modells zu rechnen. Zumal eine spektrale Altersabschätzung des Universums mittels der Halbwertszeit von Uran 238 (Halbwertszeit ~ 4,47 Milliarden Jahre) am Beispiel des Sterns CS 31082-001 grob das Alter des Universums vorgibt. Genauer:  Das Verhältnis von Thorium 232 zu Uran 238 ermöglicht die Altersbestimmung des Sterns von etwa 12,5 Milliarden Jahren. Da der Stern nicht älter als das Gesamtsystem (Universum) sein kann, ist der vom Standardmodell vorgegebene Wert zumindest größenordnungsmäßig vertretbar.

Gemäß "Abschätzungen" des ΛCDM-Modells beträgt das derzeitige Alter des Universums ~ 4,351968·1017[s]  ~ 13,8 Milliarden Jahre

Daraus errechnet sich mit den Elementarkörpergleichungen:

eine radiale Expansionsgeschwindigkeit von vexp  = 0,0857886319294 · c , eine "aktuelle" Universums-Masse von mexp = 1,178732430 · 1053 [kg] und ein Radius von rexp =  8,752852647 · 1025 [m].

Das entspricht ~ 0,9963318 der maximalen Masse und des maximalen Radius des Universums.

 

Bemerkenswert ist die derzeitige Größe der radialen Expansionsgeschwindigkeit in Abhängigkeit des geschätzten Alters des Universums.  Diese beträgt vexp  ~ c · √α 

      (√α = 0,085424543134863) /  vexp  ~  0,998251

Das bedeutet, dass eine - für kosmische Abschätzungen - geringfügige Korrektur von ~ 0,175% der Universumsaltersabschätzung einen Zusammenhang zwischen der Sommerfeldschen Feinstrukturkonstanten α und der derzeitigen Expansionsgeschwindigkeit des Universums zur Lichtgeschwindigkeit offenbart.

Allgemein gilt für die Expansionsgeschwindigkeit vexp  , sowohl für den Elementarkörper als auch für das Universum:

Korrigiert respektive postuliert man nun die Berechnung der Expansionsgeschwindigkeit im Hinblick auf √α, dann ergibt sich gemäß der Gleichung arccos(√α)·(runi/c) = texp = 4,352408132 1017 [s]   ~  13,801396 Milliarden Jahre für das derzeitige Alter des Universums und somit eine Masse von 1,17900069 · 1053 [kg] und ein Radius von 8,75484465 1025 [m].

 

Mit v = √α · c ergibt sich der relativistische Faktor [: √(1-(v/c)²) ]  zu  √(1-α).

Das ist als Beobachtung (Mustererkennung respektive als formalisierte Werteauffälligkeit) äußerst interessant, da das Verhältnis √(1-α) in die Berechnungen der Materiebildungsmöglichkeiten und deren Materieeigenschaften, wie beispielsweise bei den anomalen magnetischen Momenten zum Tragen kommt. 

 

Die räumliche Anatomie des Universums im Bild der EKT  

Das Universum als solches manifestiert sich primär auf einer Kugelschale, dessen Radius bis zum Maximum zeitabhängig ist. Im Ergebnis wird Information, Masse und inhärent Raum primär zweidimensional gespeichert. Das erinnert an das holografische Prinzip. Die "Dicke" der expandierenden Kugelschale und somit der darin befindliche dreidimensionale Raum ist aus "irdischer" Sicht nicht von einem "Volumenuniversum" zu unterscheiden. Da sich die gebildeten Objekte (lokale Inhomogenitäten wie Gashaufen, ..., Planeten,..., Galaxien,...) auf der Kugelschale durch ihre gravitative Dynamik in alle Richtungen bewegen konnten und können. Der Kugeloberflächen basierende Raum war und ist dreidimensional dynamisch. Dass diese Dynamik einer Kugelschalenexpansion überlagert ist, können wir nicht (mehr) wahrnehmen, weil dieser anhaltende Prozeß zeitgleich zur primären Expansion einsetzte. Das bedeutet eine Massenansammlung auf der Kugelschale hatte und hat  drei unabhängige Translationsfreiheitsgrade zusätzlich zur radialen Expansion. Abstrakt lässt sich qualitativ "so" - phänomenologisch begründet - eine Art expandierender Raum-Zeit-Konstruktion bilden.

Insgesamt stellt sich die Frage, ob die aus der Bewegung entstandene (neue) raumgekoppelte Masse einem Selbstähnlichkeitsprozess unterliegt. Soll heißen: Entsteht neue Masse und inhärent neuer Raum fraktal? Kann jeder Raumpunkt auch "Quelle" einer neuen Elementarkörperbildung sein? Energetisch ist das im Bild der Elementarkörperdynamik kein phänomenologisches Problem (siehe das Kapitel über die innere Dynamik des Elementarkörpers).  Die Wahrnehmungsmöglichkeiten der Menschheit und apparativ der Experimentellen Physik, respektive der Experimentellen Astronomie sind in eine Ära hineingeboren, die wesentliche Bildungsprozesse verpasst hat, dass darf auch zweideutig verstanden werden, wenn man sich die Theoriekonstrukte der »Inflations-Knallisten« verdeutlicht.

 

Es hat sich somit reine Bewegung(s-Energie) in Raum(-Energie) umgewandelt. An diesen Raum ist inhärent Masse gekoppelt. Die zeitabhängigen Entstehungsgleichungen und daraus resultierend die Kosmische Konstanten-Gleichung [K1] sind:

"Überleitend" sei darauf hingewiesen, dass im Bild der Elementarkörpertheorie Energie stets auch in Wechselwirkungsprozessen (teilweise) verkörpert ist. Das bedeutet u.a., dass Photonen mit Lichtgeschwindigkeit schwerpunktbewegte Elementarkörper sind, die sich bei einer Wechselwirkung manifestieren. (Details siehe u.a. die Kapitel Anatomie des Photons und deBroglie-Materiewelle).

 

 

...ergänzend KOSMISCHES zum Vergleich

Populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) und in einem größeren Rahmen des Standardmodells der Kosmologie (Lambda-CDM-Modell) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben.

 

 

Metriken, Schwarze Löcher und ihre Bedeutung(slosigkeit)

In der üblichen "physikalischen Auswertung" des Linienelementes ds² der Schwarzschild-Metrik der ART wird eine Nullstelle bzw. Polstelle als Schwarzschild-Radius interpretiert.

In einer mehr oder weniger assoziierten Plausibilitätsbetrachtung wird danach gefragt, ab welcher Entfernung (auch) Photonen/elektromagnetische Wellen im Feld einer "gravitierenden Masse" (Raum-Zeit-Krümmung [?]) energetisch nicht mehr entweichen können.

Ohne alternative Theorien zu bemühen, folgt im Rahmen der »Knallisten« - Theorien : Die zur "Schwarzschild-Metrik" theoretisch gleichberechtigte Lösungsmöglichkeit der so genannten Eddington-Finkelstein-Koordinatentransformation beseitigt die Koordinatensingularität der Schwarzschildlösung, "sorgt" aber auch dafür, dass für die "avancierte" Lösung nach innen und für die "retardierte" Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können!  Mit anderen Worten: Die postulierten Schwarzen Löcher der Ur-Version der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten eines beliebig gewählten Koordinatensystems. Ein weiteres Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, "bringt" dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, dass Teilchen das Schwarze Loch verlassen können.

Der Vollständigkeit halber sei erwähnt, dass "man" mit den Eddington-Finkelstein-Koordinaten "unzufrieden" war. Es folgten 1960 die Kruskal-Szekeres-Koordinaten. "Man" charakterisiert die Kruskal-Szekeres-Koordinaten als die maximale analytische Fortsetzung der Schwarzschild-Lösung. Das bedeutet, dass in diesen Koordinaten die größte Information über die Schwarzschild-Raumzeit steckt. In der Relativitätstheorie heißt die übergeordnete Mannigfaltigkeit, die die Schwarzschild-Lösung einschließt, die Kruskal-Lösung. Die assoziierte duale Struktur der Schwarzschild-Geometrie fand J.L. Synge bereits 1950, zehn Jahre vor Einführung der Kruskal-Szekeres-Koordinaten.

 

Hintergründe

Das basisverletzte Kovarianzprinzip

Die allgemeine Relativitätstheorie (ART) ist eine Gravitationstheorie und geht von der Gleichheit der trägen und der schweren Masse aus [»Äquivalenzprinzip«]. Aber die ART erklärt dieses Prinzip nicht sondern setzt es voraus. Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken] bleibt aber physikalisch "unmotiviert". Schlimmer noch: Es ergeben sich je nach Wahl des Koordinatensystems phänomenologische Interpretationsspielräume (siehe oben). Der Grund ist "relativ" einfach: Koordinatensysteme sind mathematische Konstrukte, die keinerlei physikalische Eigenschaften besitzen (müssen). Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Mit anderen Worten: Das Kovarianzprinzip ist realphysikalisch betrachtet formales Blablabla und kann jeglichen theoretischen Mist hervorbringen. Selbst Schreibfehler können im Rahmen der Differentialgeometrie der ART Lösungen generieren. 

 

Des Weiteren beispielhaft: Der Fall gegen die Kosmologie,  Michael John Disney 2000, Astrophysiker

Seite 6 ... "Kalte Dunkle Materie" klingt für mich wie eine religiöse Liturgie, die ihre Anhänger wie ein Mantra rezitieren, in der hirnlosen Hoffnung, dass sie in die Welt kommt"...

 Seite 8 ... "... das Wort 'Kosmologe' sollte aus dem wissenschaftlichen Wörterbuch gestrichen und in die Priesterschaft zurückgeführt werden, wo es hingehört."

...“Die Kosmologie von der astronomischen Priesterschaft der religiösen Priesterschaft neu zuzordnen, würde nichts lösen. Sie waren nie wirklich getrennt. Zum Beispiel erhalten Physiker wie Paul Davies, Autor von Gott und die neue Physik und Der Geist Gottes, den mit 1.000.000 £ dotierten Templeton-Preis. Bis 2001 lautete der Name des Preises: Templeton-Preis für Fortschritt in der Religion!

 

 

Dunkle Photonen und die Dunkle Materie  5. Mai 2014

Servilismus „meets“ Glaubensfetisch

Textauszüge: …“Bei der Suche nach einem Partikel, das die Dunkle Materie erklären könnte, sind die Physiker des HADES-Experiments nun einen Schritt weiter gekommen - allerdings indem sie nichts gefunden haben…“

…“Ohne Dunkle Energie und Materie können weder die Ausdehnung des Universums noch dessen Dichteverteilung - und damit Strukturen wie Galaxien, Sterne, Planeten und andere kompakte Objekte – erklärt werden. Dabei weiß man von der Existenz der Dunklen Energie und Dunklen Materie nur theoretisch; einen direkten Nachweis gibt es bislang nicht…“

Kurze Übersetzung für nicht ganz so Gläubige: „Oh Du herrliches Standardmodell der Kosmologie, wie sehr lieben wir Dich und Dein unmessbares Unwesen.“

Von zahlreich vorhandenen Epigonen bejubeltes CDM-Modell-Glaubensbekenntnis in Gestalt eines meiner Gedichte zu den Standardmodellen:

Freie Parameter im Himmel, geheiligt werden unsere Namen. Unsere Theorie komme. Unser Dogma geschehe, wie im Himmel so auf Erden. Unser täglich Fördergeld gib uns heute. Und vergib uns unsere Schuld, wie auch wir vergeben unsern Kritikern. Und führe uns nicht in Erkenntnis fördernde Versuchung sondern erlöse uns von jeglicher Vernunft. Denn unser ist das Reich, die nächste Kraft und die irrationale Herrlichkeit in alle Ewigkeit."

Bevor das vollkommen falsch verstanden wird, es ist nicht Aufgabe des Naturwissenschaftlers über eine »sinngestaltete Natur der Ursache« reflektieren zu können. Sicherlich gibt es Fragen zu den Ursachen der physikalischen Erscheinungen. Und es ist keineswegs abwegig, dass es „etwas“ initial Schöpferisches gibt. Doch das ist kein Grund im Bereich der menschlichen Möglichkeiten die weiße Fahne zu hissen indem man inkonsistente, Phänomenologie befreite Formalismen erschafft, die willküraffin auf freien Parametern basieren und sich nur im Detail von x-beliebigem Glauben unterscheiden.  

 

Zur Erinnerung

Das theoretisch „einfachste“ ΛCDM-Modell basiert, wie bereits erwähnt, auf sechs freien Parametern: Parameter der physikalischen Baryonendichte, Parameter der physikalischen Dichte der dunklen Materie, Alter des Universums, skalarer Spektralindex, Amplitude der Krümmungsfluktuation und optische Tiefe der Reionisierung. Da diese Parameter noch freier erfunden wurden, erfunden sind, als im SM und stetig nachkorrigiert wurden und werden, lohnt sich hier keine weitere Detail-Erläuterung.

 

 

              

 

Zusammenhänge Hubble-Konstante, Kosmologische Konstante und Dynamik des Universums

Je nach »Theoriemode« werden die Werte für H0 und Λ so angepasst, dass diese den aktuellen Theorie-Trends entsprechen. Dass der Kehrwert der Hubblekonstanten nicht dem Alter des Universums entspricht, wird von den Urknall-Freunden so interpretiert, dass die Hubblekonstante eine nichtlineare Korrektur in Hinblick auf die Allmacht der Dunklen Seite erfährt.

    

Noch in den 1990er Jahren schwankte der Zahlenwert der Hubble-Konstanten zwischen 50 und 100 km/s/Mpc und sorgte für heftigen Streit zwischen den Kosmologen. Die Meß-Resultate des Planck-Satelliten aus dem Jahre 2013 lieferten einen Wert für die Hubble-Konstante, der um ca. 10% kleiner ist, als der "anerkannte" Literaturwert (74,3 +/-1 kms−1Mpc−1). Siehe:  Planck satellite 2013 results

Dieser signifikant kleinere Meßwert ist entweder eine klare Absage an bisherige Theorien oder zeigt auf, wie beliebig Meßergebnisse erzielt werden. Denn hätte der Meßwert dem bisherigen Wert entsprochen, wäre Niemand auf die Idee gekommen, dass hier etwas "sehr falsch" ist. Die Urknall-Hypothese steht und fällt mit der Annahme, dass die gesamte beobachtete Rotverschiebung allein auf der Raum-Zeit-Expansion basierenden Fluchtgeschwindigkeit beruht. Nur dann kann man aus der Hubble-Konstanten auf ein Alter des Universums von ca. 13,7 Mrd. Jahren schließen. Sobald man einen prozentualen Anteil der Rotverschiebung zulässt, der von physikalischen Prozessen verursacht wird, verabschiedet sich das ΛCDM-Modell.

Neuere Messungen der Planck-Mission, die 2018 veröffentlicht wurden, weisen auf einen niedrigeren Wert von 67,66±0,42 (km/s)/Mpc hin, obwohl im März 2019, ein höherer Wert von 74,03±1,42 (km/s)/Mpc mit einem verbesserten Verfahren unter Einbeziehung des Hubble-Weltraumteleskops ermittelt wurde. Die beiden Messungen stimmen auf dem 4,4σ-Niveau nicht über ein plausibles Zufallsniveau hinaus überein.

Bei allen Messungen zur Rotverschiebung und assoziierten 3-K-Hintergrundstrahlung sollte klar sein, dass der inhomogene Vordergrund "entfernt" werden muß, um das 3-K-Temperaturspektrum als solches aufzufinden. Nur wie soll das praktisch realisiert werden? Die Vordergrundsignale sind 1000-mal größer als das zu messende "Ereignis" der Hintergrundstrahlung. Des Weiteren strahlen alle kosmischen Objekte auch im Infrarotbereich. Ohnehin sind die Intensitäten der Strahlquellen geschätzt.

Das bedeutet erst einmal nicht, dass es nicht da ist, es bedeutet schlicht, dass sie es mit einem Rauschsignal zu Meßsignal von 1000 : 1 nicht messen können, so wie es für wissenschaftliche Zwecke notwendig wäre.

Es ist also absurd, wenn behauptet wird, die Temperatur der Hintergrundstrahlung (TCMB) beträgt  ≈ 2,7255 [°K] ± 0.001[°K]. Die der Messung zu Grunde liegende Planck’sche Strahlungskurve ist eine Idealisierung für einen perfekten Hohlraumstrahler. Das Universum ist alles Mögliche aber mit Sicherheit dies nicht. Der so genannte best fit ist Nonsens, da hier ein nicht existenter theoretischer Körper als Vorlage dient.

Es macht keinen Erkenntnisunterschied ob man nun diese Art von Wissenschaft als naiv oder "berechnend" identifiziert. Berechnend in dem Sinne, dass dieses offensichtlich "falsche Spiel" massiv genutzt wird um Forschungsgelder abzukassieren, die dann die falschen Propheten, im wahrsten Sinne des Wortes, am Leben halten.

 

Was bedeutet ΛCDM-Modell Nachkorrektur konkret?

am Beispiel der Temperatur der Hintergrundstrahlung...

Die Hintergrundstrahlung wurde zwar von der (inflationären) Urknall-Theorie vorhergesagt, aber wenig bekannt ist, dass die ersten Vorhersagen bei 50°K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst".

Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75°K (Nernst 1938) und 6°K (Guillaume 1896).

Siehe zur Geschichte der Hintergrundstrahlung:

History of the 2.7°K Temperature Prior to Penzias and Wilson

 

Tatsache ist: Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Wie im Rahmen der Elementarkörpertheorie gezeigt wird, ist der im Universum omnipräsent vorhandene Wasserstoff die "Quelle" der Hintergrundstrahlung.

Die Masse-Raum-Kopplung führt phänomenologisch, formal-analytisch einfachst berechnet zur Temperatur der Hintergrundstrahlung mit ~ 2,67341 °K.

Siehe im Detail:  Die Natur der Hintergrundstrahlung im Rahmen der EKT. Dieser Wert stimmt hervorragend mit dem Meßwert überein, da ja 10% der interstellaren Materie nicht Wasserstoff ist und somit nicht berechenbar ist.

Der ("best" fit) Wert gemäß ΛCDM-Modell beträgt derzeit 2,725°K (± 0,002°K) und ist das Ergebnis der theoretisch willkürlichen Nachkorrektur des ΛCDM-Modells orientiert an dem Meßwert. Gehen wir also davon aus, das der Meßwert ~ 2,725°K beträgt, so sind die 2,67341 °K (EKT Proton-Elektron-Wechselwirkungs- sprich Wasserstoff-Voraussage basierend sensationell). 

Da, wie oben bereits angegeben, das Standardmodell der Kosmologie auf einem mathematisch-theoretischen Konstrukt mit freien Parametern basiert und diese stetig nachkorrigiert werden, entsteht eine komplexe Deutungs-Beliebigkeit, die jede Theorie(erweiterung) unterstützt, die gewünscht ist. Auch enorme Abweichungen zwischen Theorie und Messung werden von den ΛCDM-Modell-Gläubigen hingenommen.

Ein weiterer Theorie-Fehler-Wahnsinn soll dies unmißverständlich verdeutlichen: Die „gemessene“ Stärke der Vakuumenergie(dichte) stellt eines der größten Probleme der modernen System-Physik dar, da die experimentell gefundenen und die theoretisch vorhergesagten Werte extrem voneinander abweichen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 (!!!) niedriger als in den theoretischen Berechnungen des Standardmodells.

Des Weiteren sei zum (Un-)Verständnis der ΛCDM-Modell-Konstrukteure, deren Epigonen und deren Apologeten noch folgendes zu bemerken: Der Radiologe Prof. Dr. Pierre-Marie Luc Robitaille hat sich zur Aufgabe gemacht, die artverwandten Messungen (Infrarot-"Bilder") der Kosmologie zu analysieren. Sein Fazit: Aus Sicht eines Experten für die Auswertung der gewonnen "Images" machen diese als Auswertungsgrundlage keinen Sinn, sie sind allesamt unbrauchbar.

Siehe dazu:  WMAP : A Radiological Analysis 2007 veröffentlicht

Professor Robitaille  ist nicht „Irgendwer“, sondern ein international bekannter Radiologe dessen Haupt-Arbeitsfeld die Optimierung und Auswertung von spektroskopischen Messungen ist. Auf diesem Gebiet hat er u.a. erhebliche Beiträge zur Weiterentwicklung der Auflösung und des Kontrastverhältnisses geleistet. Mit anderen Worten: Er ist ein Experte.  

Pierre-Marie Robitaille, a Professor of Radiology at Ohio State University is actually an experimental scientist, an expert in imaging science, radiation, instrumentation, and inorganic chemistry, with an impressive scientific career.

He is an expert when it comes to instrumentation and signal analysis. It was Robitaille who conceived and directed the construction of the world's first 8 Tesla Magnetic Resonance Imaging (MRI) scanner. In doing so, he nearly doubled the maximum field strength in MRI and gave birth to Ultra High Field Magnetic Resonance Imaging (UHFMRI). Robitaille’s scanner immediately revealed anatomical structures within the human brain that were previously never seen on human scans.

Robitailles nicht widerlegbare Argumente bezüglich der Unmöglichkeit einer wissenschaftlich begründeten „seriösen“ Auswertung der Messergebnisse zur Hintergrundstrahlung werden nach üblichem Muster angegriffen und lächerlich gemacht.

Da Robitaille u.a. behauptet, dass das Sonnenplasma eher dem Zustand des metallischen Wasserstoffs entspricht und die 3K-Hintergrundstrahlung auf mögliche Bewegungs-Zustände von Wassermolekülen zurückzuführen ist, die ja reichlich auf der Erde vorhanden sind, glaubt man seine Kritik zur Messung der Hintergrundstrahlung banalisieren zu können, indem man aufzeigt wie vermeintlich „wissenschaftlich blöd“ seine Aussagen im Allgemeinen sind, wenn es sich um (Astro-)Physik handelt. Dass diese Form der partiellen Realitätsverweigerung die johlende Masse der Standardphysik-Anhänger in Entzücken versetzt, ändert letztendlich rein gar nichts an den Fakten zur Meßsituation des „kosmischen“ Hintergrundes.

Dass er sich keine Freunde unter den »Knallisten« gemacht hat, ist verständlich. Reflexartig wird er als Crank bezeichnet. Er sei ja nur Nuklearmediziner aber weder Astronom noch Physiker. Das erinnert an Alfred Wegener, wohlgemerkt "nur" ausgebildeter Meteorologe, der für seine These der Kontinentaldrift von führenden Geologen damals abgekanzelt wurde: "Wenn wir uns Wegener anschließen wollten, müssten wir alles vergessen, was wir in den letzten siebzig Jahren gelernt haben, und völlig von vorne anfangen." Nun, wir wissen wie es ausging...

Im Zuge seiner Recherche hat Robitaille die Datenauswertung der Satellitenexperimente COBE, WMAP und Planck stark kritisiert und die Ergebnisse als Fantasiekonstrukte identifiziert. Seine Argumentation ist fundiert, zumindest, was die behauptete Genauigkeit der Daten betrifft. Tatsächlich wundert man sich, nicht nur als Physiker, wie das tausendfach stärkere Vordergrundsignal der Milchstraße so perfekt herausgefiltert werden kann.

Robitaille wird von den Protagonisten der Standardmodellphysik auch lächerlich gemacht, weil er u.a. behauptet, dass das Kirchhoffsche Strahlungsgesetz falsch sei. Das Kirchhoffsche Gesetz sagt übrigens nicht "viel" aus, lediglich dass im thermischen Gleichgewicht ein guter Absorber auch ein guter Emitter ist. Was Robitaille eigentlich sagen will und auch sagt, ist die Tatsache, dass es keine perfekten Schwarzen Körper gibt. Damit hat er ohne Wenn und Aber recht. Fazit: Keine schwarzen Körper bedeutet: keine Eichmöglickeit aus meßtechnischer Sicht. Lächerlich machen sich somit die Gestalter und Gläubigen des Standardmodells der Kosmologie, die dumm-dreist einfachste, formal logische Argumente ignorieren, um »DAS« zu verstehen braucht man wahrlich kein Physiker oder Astronom zu sein.

Zum eigenständigen Mitdenken: Ein Lichtsignal  ist kein Leuchtkörper. Beispiel: Die Sonne sendet Lichtsignale zum Mond, die erst sichtbar werden, wenn sie vom Mond reflektiert werden! Der Lichtsignalweg ist unsichtbar.

Strahlungsquellen, wie z. B. Sterne, emittieren radial (in alle Richtungen). Die emittierten Photonen sind auf ihrem Weg durch den Raum nicht sichtbar, sondern erzeugen erst bei einer Wechselwirkung mit einem „Hindernis“ (Mond, Auge, künstliche Messapparatur) den »Eindruck der Helligkeit«, wobei sie einen Teil der Energie abgeben. Auch ohne die genaue „Natur“ der Wechselwirkung zu kennen geht thermodynamisch betrachtet bei diesen Prozessen stets Energie „verloren“. Der Verlust bezieht sich auf das ursprüngliche Lichtsignal. Die „verlorene“ Energie wird auf die möglichen Freiheitsgrade des Absorbers übertragen. Sollte also ein Meßergebnis vorliegen, muß es einen (bis zur Wechselwirkung) kontinuierlichen „Energiestrom“ gegeben haben… Da das Universum von „unzähligen“ strahlenden lokalen Objekten inhomogen besetzt ist, ist der interstellare Raum erfüllt von Photonen, die nicht registriert werden können, solange sie keinen wechselwirkenden Absorber treffen. Hier gilt, dass der Absorber sodann selbst zum Emitter wird. Dieser inhomogene, messtechnisch unbestimmte spektrale Vordergrund überstrahlt die Hintergrundstrahlung um mehrere Zehnerpotenzen.   

 

Zurück zur...

Grundsatzfrage

Gibt es noch etwas "Konträres" in der Theoretischen Grundlagenphysik zu entdecken? Hat der herrschende Indeterminismus der »Modernen Theoretischen Physik« das "letzte Wort"?

 

 

Was wäre ein Paradigmenwechsel?

Es ist alles andere als trivial, Raum und Zeit als "physikalische Gegenstände" zu betrachten. Raum und Zeit sind primär »Ordnungsmuster des Verstandes«. Um aus diesen Ordnungsmustern Physik "zu erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Schon Isaac Newton hielt die Vorstellung, dass Gravitation durch den leeren Raum wirken könne, berechtigterweise für absurd. Das »Newtonsche Gravitationsgesetz« erlebt im Rahmen eines Masse gekoppelten Raumes im alternativen Denkmodell der Elementarkörper eine unerwartete Renaissance. Das Hinterfragen des scheinbar Banalen führt zu neuen Ideen und eröffnet nachvollziehbare Transparenz und Gesamtheit. Mikro- und Makrokosmos lassen sich  phänomenologisch basierend verstehen und voraussagefähig formalisieren.

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

Wie bereits eindrucksvoll mehrfach exemplarisch gezeigt, gibt es das "Konträre".

Es wird weiterhin folgend gezeigt, dass das, aus Standardmodellsicht, vollkommen Unerwartete, scheinbar Unmögliche bereits seit Jahren als "Denkmodell-Realität" konsistent und skalenübergreifend existiert und im Sinne des Prinzips der Parsimonie den Standardmodellen bezüglich aller signifikanten Parsimonie-Aspekte überlegen ist... bedeutet:

i) extrem deutlich weniger freie Parameter...

ii) eine Phänomenologie die konsistent mikroskopische sowie makroskopische Entitäten und deren Wechselwirkungen skalenübergreifend vereinend beschreibt...

 

Beispiel Gravitation

Das Geheimnis der scheinbar sehr schwachen Gravitation im Verhältnis zur elektrischen Wechselwirkung und starken Wechselwirkung liegt in der falschen Annahme begründet, dass es generell einen Masse entkoppelten Raum gibt. Berücksichtigt man den Raum, den makroskopische Körper, sowohl durch ihre Objektausdehnung als auch durch ihren Wechselwirkungsradius aufspannen, dann wird deutlich, dass die "fehlende" Energie in dem Raum selbst "steckt", bedeutet: Raum ist eine Energieform. Mit dieser Annahme lässt sich die Gravitationswechselwirkung phänomenologisch beschreiben und exakt berechnen.

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind  alle Ladungswechselwirkungen sowie »Ladung« selbst anschaulich auf Masse-Radius-Kopplungen zurückzuführen.

Elektrische Ladungen im Elementarkörper-Denkmodell sind phänomenologisch begründet und kommen als (formales) Resultat der Masse-Radius-Kopplung nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor, wobei für die q0-q0-Wechselwirkung α aus energetisch-phänomenologischen Gründen nicht Gleichungsbestandteil ist.

"Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten. Zum einen die energetisch ruhemasse-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e. Mit diesen zwei Ladungsmöglichkeiten ergeben sich drei Wechselwirkungsszenarien, die primär, ausgehend von Elektron und Proton, alle bekannten Teilchen, wie Neutron, zeitinstabiles Pion, zeitinstabiles Myon und eine Kaskade von weiteren Teilchenmöglichkeiten bis hin zum Higgs-Boson kreieren und formal analytisch einfachst berechnet werden können.

Wechselwirkungsszenarien

e-e-Wechselwirkung: Die Bezeichnung e-e-Wechselwirkung bedeutet, dass zwei Elementar-Ladungsträger in Wechselwirkung treten. Prominentestes Beispiel dieses Wechselwirkungstyps ist das Proton-Elektron basierende Wasserstoffatom.

e-q0-Wechselwirkung: Elementarkörper-Ladungsträger A(q0) wechselwirkt mit Elementar-Ladungsträger B(e). Prominentestes Beispiel dieses Wechselwirkungstyps ist das Proton-Elektron basierende Neutron.

q0-q0-Wechselwirkung: Ladungsträger A und B treten über die Elementarkörperladung q0 in Wechselwirkung. Prominentes Beispiel dieses Wechselwirkungstyps ist das Proton-Elektron basierende geladene Pion.

 

iii) eine Ende der undefinierten sekundären Begriffe, wie Masse, Ladung, quantenmechanischer Drehimpuls etc., die Masse-Raum-gekoppelt respektive als so genannte »energetische Analogie« verstanden und zu einer formal erfassbaren Einheit werden...

 

Die Verwendung von sekundären Begriffen in der Physik ist nicht nur weit verbreitet, im Rahmen der Theoretischen Grundlagenforschung gibt es auf diesem Gebiet ausschließlich sekundäre Begriffe. Verkünder und Versteher sekundärer Begriffe glauben an die suggestive Strahlkraft. Sie haben "irgendwie" ein gutes Gefühl der wissenschaftlichen Nähe, wenn sie beispielsweise von elektrischer Ladung, Photonen, Masse, elektrischem Feld oder Gravitationsfeld hören, über diese sprechen und diese Begrifflichkeiten respektive Größen in Formalismen einfügen. Doch alle Denkmodelle, welche auf sekundäre Begriffe fußen, sind nicht erkenntnis-tragfähig.

 

iv) ein Formalismus der sich mit einfacher Mathematik beschreiben lässt...

v) daraus resultierend einfache Gleichungen mit exakter Vorrausagefähigkeit, die in allen relevanten Experimenten als Meßwerte bestätigt wurden...

vi) fundamentale Beobachtungs-Ergebnisse, wie die Invarianz der Lichtgeschwindigkeit, die Invarianz der elektrischen Ladung im Rahmen des Denkmodells der Masse-Raum-Kopplung phänomenologisch erklärt... und u.a. die Bedeutung und Herleitung der Feinstrukturkonstanten aus Vergleich von elektrischer und Gesamtenergie ...  

 

statt  4 Grundkräften     →    Masse - Radius - Kopplung

* Der von der Systemphysik verwendete Begriff Grundkraft ist irreführend, da es sich im Rahmen des Standardmodells der Kosmologie (ΛCDM-Modell) bei der Gravitation um Gleichungssysteme (Einstein, Friedmann) handelt, die in einem mechanischen Sinne keine Kraft beschreiben. Die Schwache und Starke Wechselwirkung sowie die elektromagnetische Wechselwirkung sind gleichfalls erst einmal masselose, "kraftlose", rein mathematische Gebilde. 

 

Das Produkt aus der [Ruhe-]Masse m0 und dem [maximalen] Radius r0 eines «Elementar-Körpers» ist konstant und wird durch die Masse-Radius-Konstanten-Gleichung (Freylingsche-Konstanten-Gleichung) [F1] beschrieben.

 

Ruhemasse und invariante Masse

Im Rahmen vorliegender näherungsfreier, phänomenologisch begründeter Elementarkörper wird der Begriff Ruhemasse (m0) verwendet, dieser ist jedoch von dem Begriff der Ruhemasse der Speziellen Relativitätstheorie (SRT) zu unterscheiden. Die Ruhemasse entspricht dem voll ausgebildeten Elementarkörper (m(t) = m0, r(t) = r0). Die innere Dynamik und alle möglichen Elementarkörperwechselwirkungen sind, wie später ausgeführt wird, Inertialsystem befreit.

(Ruhe-)Masse in der SRT

Ohne das an dieser Stelle näher auszuführen, wird im Rahmen der SRT der Begriff invariante Masse statt Ruhemasse verwendet. Die Ruhemasse (invariante Masse) der SRT ist inhärent mit Inertialsystemen verbunden.

Zur Begriffsdefinition: Eine Größe, die sich bei Lorentz-Transformationen nicht ändert, heißt Lorentz-Invariante. In der Speziellen Relativitätstheorie wird Masse (mSRT) so definiert, dass sie eine Lorentz invariante Größe ist.

 

Erweiterter Energieerhaltungssatz

Grundlage eines Paradigmenwechsels, in Form eines konsistenten Denkmodells, das als solches fundamental verschieden von herrschenden Modellen ist, ist ein Masse gekoppelter Raum, statt eines derzeit postuliert und propagiert Masse entkoppelten Raumes.

Die Masse-Raum-Kopplung führt direkt zu einer maßgebenden Erweiterung des Energieerhaltungssatzes, was sicherlich für sich betrachtet bereits Neue Physik bedeutet.

 

 

Singularität und Unendlichkeit

Singularitäts- und Divergenz-Probleme existieren ausschließlich im Rahmen der Mathematik. Realphysikalisch gibt es keine Singularität die Unendlichkeit generiert, da die Körperlichkeit der Objekte eine innere Dynamik aufweist, die mit kleiner werdendem Radius sich letztendlich selbst auflöst. Mit anderen Worten: Im Rahmen des Masse-Raum gekoppelten Denkmodells (EKT) wandelt sich der Körper dynamisch in ein Photon. Diesem raum- und masselosen Körperzustand ist inhärent die Lichtgeschwindigkeit zugeordnet. Die Energie wird als Rauminformation gespeichert. Diese Information wandert, sofern es sich um eine Translation im Raum handelt, mit Lichtgeschwindigkeit unbeobachtet, bis diese detektiert (gemessen, beobachtet) wird sprich wechselwirkt. Es kommt während der Detektion (Beobachtung, Messung) zu einer Ausschwingung der Information. Der gesamte Vorgang lässt sich einfachst durch die Gleichungen r(t) = r0 · sin(ct/r0), m(t) = m0· sin(ct/r0) und deren zeitliche Ableitungen beschreiben. Details siehe exemplarisch das Kapitel Impuls-Masse-Inversion

 

Vergleich mit dem Standardmodell der Kosmologie

Zur Orientierung

U.a. bedingt durch die notwendige These des Standardmodells der Kosmologie (Lambda-CDM-Modell) der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit) ist der Raum von der Materie in den Standardmodellen entkoppelt worden.

 

Kosmologische Konstante Λ und postulierte Inflation

Die Kosmologische Konstante Λ,  die Albert Einstein im Glauben an ein statisches Universum einführte, welche dann im Zuge der "frühen Ideen" des expandierenden Universums abgeschafft wurde, kam zurück, da Λ theoretisch wieder gebraucht wurde. Doch die Kosmologische Konstante bedeutet schlicht und ergreifend, dass auch im Verständnis der Urknall-Theoretiker, dass "Vakuum" eine Energiedichte besitzt. Vakuum ist hier eine weitere Wortspielerei für vermeintlich leeren Raum. Das Anheften von Λ an die Theorie führt aber unweigerlich zu »Materie im Raum«. Das Ergebnis ist leicht zu verstehen. Lassen wir mal außen vor, dass wir hier schon wenig kleinlich, das Attribut einer lichtschnellen Ausbreitung nicht thematisieren wollen. Der Raum expandiert mit Materie (nahezu lichtschnell) bis zum Beginn der postulierten überlichtschnellen Inflation, dann expandiert der Raum ohne Materie bis zum Ende der Inflation, um dann wieder mit Materie brav im Rahmen der Relativitätstheorie zu expandieren.

Detaillierter...

Inflationäre Modelle gehen davon aus, dass der Vakuumzustand des Universums etwa 10-36 Sekunden nach dem Urknall anders war als heute: Das inflationäre Vakuum hatte eine viel höhere Energiedichte. Nach der Allgemeinen Relativitätstheorie erzeugt jeder Vakuumzustand mit einer Energiedichte ungleich Null eine abstoßende Kraft, die zu einer Expansion des Raums führt. In inflationären Modellen verursacht der frühe hochenergetische Vakuumzustand somit extrem schnelle Expansion sprich eine Expansion mit vielfacher Lichtgeschwindigkeit. Diese Expansion erklärt verschiedene Eigenschaften des heutigen Universums, die ohne eine solche inflationäre Epoche nicht zu erklären sind. In den meisten Inflationsmodellen wird ein Skalarfeld, das so genannte Inflationsfeld, vorgeschlagen, das die notwendigen Eigenschaften besitzt.

Die Inflations-Theorien lassen offen, wann die Inflationsepoche endete, derzeit arbeitet man mit einer Dauer zwischen 10-33 und 10-32 Sekunden nach dem gleichfalls postulierten Urknall. Die schnelle Ausdehnung des Raums hat im Modell zur Folge, dass alle potenziellen Elementarteilchen (oder andere "unerwünschte" Artefakte wie topologische Defekte, was das auch immer sein mag), die aus der Zeit vor der Inflation "übrig geblieben waren", nun "sehr dünn" über das Universum verteilt waren. In der postulierten Inflationsphase vergrößern sich die linearen Dimensionen des frühen Universums um einen Faktor von mindestens 1026 (und möglicherweise um einen viel größeren Faktor, die Theorien lassen das offen) und das Universum vergrößerte sein Volumen um einen Faktor von mindestens 1078. Zum Vergleich: Eine Expansion um den Faktor 1026 entspricht der Ausdehnung eines Objekts von 1 Nanometer auf eine Länge von etwa 10,6 Lichtjahren postuliert in 10-33 bis 10-32 Sekunden.

 

Inflations-Fazit

Fantastischer und willkürlicher geht es in bekannten Sciencefiction-Filmen, wie Starwars, auch nicht zu. Der Unterschied: Es handelt sich um Theoretische Physiker, die nach dem Pippi Langstrumpf-Prinzip die Welt so machen, wie es ihnen gefällt. Warum? Weil sonst sprich ohne ultrakurze, überlichtschnelle Inflationsphase, für die es übrigens im Rahmen der Inflationstheorie keine phänomenologische Begründung gibt,  die selbstdefinierte Theorie sich, aus dann nicht erklärbaren Beobachtungsinterpretationen und - wenn man so will - assoziiert axiomatisch, selbst widerlegt. Was man, insbesondere als Laie, nicht erwarten würde und auch als Laie höchst wahrscheinlich als unseriös bewerten würde, sofern man es denn verstehen könnte. Was für Ärzte immer noch im Volksglauben gilt: Halb-Götter in Weiß, sind hier, da der Normalmensch Theoretische Physiker seriöser als Ärzte sieht, die Standardmodell-Experten Götter in Weiß. Hand aufs Herz, wer schon einmal explizit Gleichungen zur Allgemeinen Relativitätstheorie gesehen hat, wird sich sicherlich nicht mit denen anlegen, die diese Gleichungen als ihr Arbeitsfeld betrachten.

Glücklicherweise läßt sich das Standardmodell der Kosmologie auch ohne differentialgeometrische Details sowie das Standardmodell der Elementarteilchenphysik, im Sinne des Prinzips der Parsimonie, spielend durch die Elementarkörpertheorie (EKT) komplett ersetzen. Es bleibt nichts von dem einen noch von dem anderen, weder epistemologisch noch von der Kompliziertheit und willkürlichen Komplexität übrig.

 

 

Gravitation im Bild der Masse-Raum-Kopplung

Die im "bekannten" Newtonschen Gravitationsgesetz verwendete Gravitationskonstante γG bezieht sich auf den "längen-kleinsten" Körper G {Elementarquant}. Dieser Sachverhalt ist nicht offensichtlich, da das "üblich formulierte" Gravitationsgesetz diesen ursprünglichen Zusammenhang nicht explizit offenbart.

Bekannte makroskopische Objekte (...Billardkugel, Fußball, Erde, Sonne,...) genügen offensichtlich nicht der Masse-Radius-Konstantengleichung. Ihre reale Ausdehnung ist (schon vor der Wechselwirkung) um viele Zehnerpotenzen größer, als es Gleichung [F1] Masse-Radius-gekoppelt für Elementarkörper fordert.

Ohne die konkrete Natur der Vielteilchen-Verschachtelung zu kennen, lässt sich allgemein verstehen, dass die scheinbar im Verhältnis zur Ruhe-Energie fehlende [Raum-]Energie ER der Gravitationswechselwirkung in der realphysikalischen Objekt-Ausdehnung steckt, welche durch den Objektradius rO bzw. durch den Wechselwirkungs-Abstand r (Wechselwirkungsradius) zum Massenschwerpunkt gegeben ist.

 

Gravitationskonstanten

Der weiterführende Modellgedanke, dass in Analogie zum Makrokosmos im Mikrokosmos »Elementarkörper spezifische Gravitationskonstanten« führt zum erweiterten Energie-Erhaltungssatz [E1r] und zur Ruhe-Energie E0.

 

Elementare Gravitation und elementares Gravitationspotential

Für einen Elementarkörper mit der Ruhe-Masse m0 und dem Ruhe-Radius r0 ergeben sich somit die Gravitationskonstante γ0 und allgemein das Gravitationspotential Φ zu:

Multiplikation des Gravitationspotentials Φ(r0,r) mit der Ruhemasse m0 ergibt den erweiterten Energie-Erhaltungssatz:

 

 

 

 

 

Halten wir fest...

Merkmale des Paradigmenwechsels

Grundlage eines Paradigmenwechsels, in Form des vorliegenden konsistenten Denkmodells, das als solches fundamental verschieden von herrschenden Modellen ist, ist ein Masse gekoppelter Raum, statt eines postuliert und propagiert Masse entkoppelten Raumes.

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

statt  4 Grundkräften*     →    Masse - Radius - Kopplung

 

* Der Begriff Grundkraft ist irreführend, da es sich im Rahmen des Standardmodells der Kosmologie (ΛCDM-Modell) bei der Gravitation um Gleichungssysteme (Einstein, Friedmann) handelt, die in einem mechanischen Sinne keine Kraft beschreiben. Die Schwache und Starke Wechselwirkung sowie die elektromagnetische Wechselwirkung sind gleichfalls erst einmal masselose, "kraftlose", rein mathematische Gebilde. 

 

Erweiterter Energieerhaltungssatz

Die Masse-Raum-Kopplung führt direkt zu einer maßgebenden Erweiterung des Energieerhaltungssatzes, was sicherlich für sich betrachtet bereits Neue Physik bedeutet.

Da mit dem inhärent Masse gekoppelten Raum die Neutrinoexistenz und die Neutrino-Wechselwirkungsszenarien "(weg)fallen", ist das Konzept der Masse-Raum-Kopplung schon aus diesem Grund ein »Standardmodell-Zerstörer«. Das auch die Quantenmechanik sowie die Relativitätstheorie mit dem Masse gekoppelten Raum "fallen", werden die letzten 120 Jahre Theoretische Modellphysik nachträglich obsolet. Um hier Mißverständnissen vorzubeugen, es bleiben sehr wohl eine Vielzahl von Meßwerten erhalten, was "geht" sind die Quantenfeldtheoretischen Interpretationen der Messungen.    

Zur Erinnerung

Niels Bohr äußerte bereits 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Analytisch betrachtet

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus, so wie heute im Rahmen der Standardmodelle üblich, so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Tatsachen

Auch für Neutrinos gilt: Es gab und gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Wie werden Neutrinos nachgewiesen?

Postulate der »SMer« und experimentelle Wirklichkeiten

Aufgrund der extrem kleinen Wirkungsquerschnitte kann man Neutrinos in einem Detektor nicht nachweisen. Man bedient sich daher, speziell in Kollisionsexperimenten, eines experimentellen »Tricks«, für den Nachweis über die »fehlende Energie«. Man konstruiert den Detektor völlig hermetisch, so dass eine Energie/Impuls-Bilanz aufgestellt werden kann. Der fehlende Energie-Impuls-Vektor wird einem entweichenden Neutrino zugewiesen.

ABER: Vorausgesetzt man könnte ein real-physikalisches System hermetisch gestalten, so verbleibt dieser vermeintliche Neutrino-Nachweis offensichtlich "Neutrinotheorie beladen" und im Sinne eines physikalischen Experimentes "methodisch völlig beliebig". Denn, wenn es keine Neutrinos geben würde, ändert sich an dem Versuchsergebnis schlicht nichts. Das Einzige, was im "Experiment" festgestellt wird, ist fehlende masse-abhängige Energie gemäß vermuteter Energiebilanz.

Die "zweite Klasse" von vermeintlichen Neutrinonachweisen beruht auf theoretischen Annahmen, die besagen, dass bei Entstehungs- und Zerfallsprozessen Neutrinos beteiligt waren. Es handelt sich in allen Fällen um theoriebeladene, indirekte "Existenzbeweise". In keinem dieser "Experimente" werden Neutrinos direkt nachgewiesen.

 

 

Wie sieht die Alternative mit wenigen Worten beschrieben aus?

Die Elementarkörpertheorie (EKT) befasst sich insbesondere mit der Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich näherungsfrei mit drei freien Parametern und einigen wenigen Meßwerten [0] formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen.

Die Elementarkörpertheorie stellt einen Energie erhaltenden fundamentalen Zusammenhang zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist allgegenwärtig. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst. Resultierend lassen sich intuitiv logische Randbedingungen für eine Basisbetrachtung formulieren.

Die grundsätzliche Denkmodell-Forderung besteht darin, dass minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. 

          

Information als materieller Zustand = Elementarkörper

  

m0 · r0 = FEK = const. : Masse Radius Konstantengleichung

 

Die Elementarkörpertheorie liefert neben konkreten Voraussagen insbesondere Phänomenologie. Mathematik ist zwar "Denkmodell-inhärent", aber hier nur "Mittel zum Zweck". Die Elementarkörpertheorie baut auf Plausibilität und Minimalismus auf und ist nachvollziehbar weder an Wahrscheinlichkeiten noch methodischer Materiezersplitterung interessiert.

 

 

 

                                       Anomale magnetische Momente

Bemerkenswert ist die Tatsache, dass die experimentellen Ergebnisse, sofern man diese ohne theoriebeladene Erwartungen in Richtung "leptonischer "Strukturlosigkeit" bzw. Quarks-basierender Substruktur betrachtet, eine leicht feststellbare Gemeinsamkeit aufweisen. Die zusätzlichen (vermeintlich anomalen) magnetische Moment-Beiträge zu den semiklassisch zu erwartenden sind sowohl für Proton, Neutron als auch für das Elektron stets ~ 1·10-26 Joule/Tesla.

 

Das Neutron ist gemäß Elementarkörpertheorie, wie bereits erwähnt, Proton-Elektron basierend...

Obige Berechnung der Neutronenmasse, eines Proton-Elektron-wechselwirkungsbasierenden Neutrons ist extrem einfach und im Ergebnis sensationell im Vergleich mit der gemessenen Neutronenmasse. Das Standardmodell der Teilchenphysik kann die Neutronenmasse - wenn überhaupt - nur grob abschätzen. Gemäß Higgs-Mechanismus als Erweiterung des SM erhält das postuliert Quarks basierende Neutron über das Higgs-Feld nur ungefähr 1% seiner Masse, ohne das an dieser Stelle auszuführen (wir kommen später noch ausführlich auf das »Higgs korrigierte« Standardmodell zu "sprechen").    

Das bedeutet für das magnetische Moment des Neutrons, dass die zusätzlichen magnetischen Momentbeiträge von den zu untersuchenden Teilchen im Magnetfeld induziert werden und nicht intrinsisch sind. 

Aus rational logischen Gründen ergab sich (system-)analytisch die Frage, ob diese Beiträge eine gemeinsame Ursache haben. Die Annahme, dass diese Beiträge zum magnetischen Moment der materiebildenden primären Ladungsträger in einem äußeren Magnetfeld messungsinhärent aus dem Feld kommen und nicht intrinsisch sind, wurde zahlenanalytisch, naturphilosophisch als auch formal untersucht und bestätigt.

 

Anomales Magnetische Moment des Protons

Zur Verdeutlichung wird hier exemplarisch folgend aufgezeigt, wie aussagefähig und extrem einfach die primär phänomenologisch begründete Gleichung zur Berechnung des magnetischen Moments des Protons aussieht... 

EKT basierende Berechnung des magnetischen Moments des Protons

Das ist ein sensationelles Ergebnis, insbesondere wenn man weiß, das im Rahmen der QCD das magnetische Moment des Protons, wenn überhaupt, nur grob geschätzt berechnet werden kann.

 

Denkmodellanatomien

zur Kenntnisnahme, zur Selbstanalyse und zum Verstehen

von Dirk Freyling

Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht (jedoch) nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Denkmodelle können nur auf Konsistenz, Aussagefähigkeit, bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik im Sinne des Prinzips der Parsimonie bewertet werden.

Skepsis ist eigentlich eine gute "Sache". Aber, Skepsis wird dann zum Problem, wenn die Aufnahmefähigkeit des Betrachters dadurch signifikant gestört wird. Jemand der sich einem Denkmodell inhaltlich nähert und (wiederholt) die Frage stellt, ob das Denkmodell seinen eigenen bisherigen Vorstellungen entspricht oder anfängt selbst (ergänzend) zu spekulieren, bevor das Denkmodell hinreichend verstanden wurde, ist kaum in der Lage sich den neuen Gedanken mit der nötigen Aufmerksamkeit zu nähern. Die eigentlichen Probleme des Verstehens kommen dann, selbst bei einem leicht verständlichen Denkmodell mit wenig Mathematik, von der Egozentrik des Betrachters.

Fatal wird es, wenn der Betrachter Aussagen und Postulate bestehender Modelle als Grundlage seiner Bewertung des neuen Denkmodells annimmt. Nicht selten waren/sind die Betrachter gar nicht in der Lage die formalen Grundlagen und die Fülle an Inkonsistenzen bestehender Modelle zu erfassen. In der Regel sind dem Gros der Betrachter die Randbedingungen der bestehenden Modelle gar nicht bekannt. [1]

Andererseits ist zu beachten, dass es sich bei der überwiegenden Anzahl von vermeintlichen (alternativen) physikalischen Denkmodellen eher um rein metaphysische respektive philosophische Modelle handelt. Diese können zwar eine große Strahlkraft besitzen, da diese dem Betrachter meist Spielräume für eigene Gedanken und fantasievolle Ausschmückungen lassen, aber letztendlich zu einer konkreten physikalischen Naturbeschreibung unbrauchbar sind.

Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten Denkmodell Zeit und Beachtung zu schenken?

Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für physikalische Größen.

a) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch eine konsistente, nachvollziehbare Erklärung innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.

b) Existieren keine Modell basierenden formalisierten Berechnungen, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell. 

 

 

[Lagrangedichte]

Des Weiteren fordern die Standardmodell-Protagonisten, deren Epigonen und Apologeten, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht". Sie sind sich siegessicher, das das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert.

Was die »SMer« diesbezüglich nicht gerne thematisieren, um es moderat zu formulieren, sind folgende initiale Sachverhalte...

Das Standardmodell der Teilchenphysik benötigt erst einmal, um überhaupt „starten“ zu können, derzeit 25 freie Parameter]3, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]4, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…

]3 ...25 freie Parameter des Standardmodells der Teilchenphysik

3 Kopplungskonstanten

der starken Wechselwirkung ( 8 Gluonen, Farbladung) αs

der elektromagnetischen Wechselwirkung (Photon, elektrische Ladung) α

der Schwachen Wechselwirkung (W+, W-, Z0αW

6 Quarkmassen

3 Massen der geladenen Leptonen (Elektron, Myon, Tau)

4 Winkel zur Beschreibung von Quark-Zerfällen

1 Winkel zur Beschreibung der CP-Verletzung in der starken Wechselwirkung

Masse des Higgs-Bosons

3 Massen und 4 Mischungswinkel massebehafteter Neutrinos

]4 Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

 

Das ein Modell mit einer derart großen Gestaltungswillkür und Gestaltungsbeliebigkeit als erfolgreich gepriesen und medial verkauft wird, erinnert stark an Religionen respektive Glaubensgemeinschaften.

 

Psychologie der Masse

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten.

Inhalts-analytisch erstaunlich ist die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) sowie vermeintlich konkurrierende Modelle (wie die prominenten Stringtheorien) keinerlei rational logischer Kritik standhalten, wie im weiteren Verlauf im Zusammenhang und Vergleich mit der Elementarkörpertheorie an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische Totschlagargument, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum Rundumschlag ins Feld geführt.

 

Stringtheorien potenzieren aus erkenntnistheoretischer Sicht nochmals das „Phänomen der Unanschaulichkeit“. Stringtheorien sind u.a. ein „Sonderfall“ variabler Kopplungskonstanten. Jedoch sind diese Kopplungskonstanten keine vorbestimmten, anzupassenden oder universellen Parameter. String-Kopplungskonstanten sind Skalarfelder, die von der Position in Raum und der Zeit abhängen können, deren Werte so dynamisch festgelegt werden. Die eindimensionalen Strings sind zwar offensichtlich anders als die nulldimensionalen Punkte des SM,  aber Stringtheorien sind ergebnisorientiert, trotz der "Mehrdimensionen" in denen sich die Strings „breit machen“, keineswegs grundsätzlich verschiedene Konzepte im Vergleich zu den herrschenden Quantenfeldtheorien, wie häufig gedacht und behauptet wird. Auch Stringtheoretiker sind bemüht Quarks & Co theoretisch zu konstruieren. Das gesamte Arsenal an Beliebigkeit in Form nicht direkt messbarer instabiler „Teilchen“, die im Beschleuniger theorie-induziert werden, will die Stringtheorie „ungeprüft“ abbilden (formal nachbauen). Das Dogma der SM-Theorieobjekte bleibt also erhalten. Derzeitige Stringtheorie-Modelle sind so aussage- und gegenstandslos, dass selbst die Protagonisten des realobjektbefreiten Standardmodells keine (wirkliche) Angst vor diesen haben.

 

Auch das Standardmodell der Kosmologie (Lambda-CDM-Modell) basiert auf einem mathematisch-theoretischen Konstrukt mit einer großen Anzahl freier Parameter. Mit diesen, stetig nachkorrigierten freien Parametern entsteht eine komplexe Deutungs-Beliebigkeit, die jede Theorie unterstützt, die gewünscht ist.

Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See.  

Zur Beliebigkeits-Problematik der freien Parameter gesellt sich noch die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips. Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken].

Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear.

Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.

 

Der Urknall ist nur Marketing 

(Robert Betts Laughin)

SPIEGEL-Interview mit Physik-Nobelpreisträger Robert Betts Laughlin …“ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“…

 

 

Was denken Pioniere der Teilchenphysik über die „heutige“ Teilchenphysik respektive über das „heutige“ Standardmodell der Elementarteilchenphysik. Wobei „heute“ hier etwas grob gefasst mit dem Beginn des 21.Jahrhunderts startet. Ein Statement des Physiknobelträgres des Jahres 1976 Burton Richter aus dem Jahre 2006 beinhaltet eine klare Antwort.  

Burton Richter: „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“

Quote: “To me, some of what passes for the most advanced theory in particle physics these days is not really science. When I found myself on a panel recently with three distinguished theorists, I could not resist the opportunity to discuss what I see as major problems in the philosophy behind theory, which seems to have gone off into a kind of metaphysical wonderland. Simply put, much of what currently passes as the most advanced theory looks to be more theological speculation, the development of models with no testable consequences…“

QuelleTheory in particle physics: Theological speculation versus practical knowledge

Physics Today October 2006

Burton Richter (1931 – 2018) erhielt 1976 zusammen mit Samuel C. C. Ting den Physik-Nobelpreis …

Burton Richter führte ein Team, das ein neues subatomares Teilchen entdeckte, das er ψ (psi) nannte. Diese Entdeckung wurde auch von dem von Samuel Ting am Brookhaven National Laboratory geführten Team gemacht, aber Ting nannte das Teilchen J. Das Teilchen wurde daher als das J/ψ-Meson bekannt.

Übergeordnet lesenswert ist in dem Zusammenhang auch der SPIEGEL-Artikel Sperrt das Desy zu! aus dem Jahre 1999, indem Hans Graßmann die „methodische Leere“ des DESY beschreibt “…Glaubt den Desy-Managern nicht: Die öden Zahlenkolonnen, die das Desy produziert, das ist nicht die Physik…“

 

 

Kommen wir zu der Forderung der »SMer« zurück, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht" (es darf jetzt gelacht werden). Sie sind sich siegessicher, das das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert.

Naja, ich "sage" es mal so, stell Dir vor es geht.

Ich kann das hier erst einmal nur thematisch "anreißen", da es gemäß inhaltlichen Umfangs, konkreter Ausführungen etc. weit weg vom Primären über Denkmodellaspekte führt. Eine sehr ausführliche Betrachtung mit einer unerwarteten phänomenologisch begründeten, formalanalytischen - ohne Übertreibung - sensationellen Alternative und im Ergebnis erstaunlichen Werteberechnungen findet sich (später) "unter": Anatomie der anomalen magnetischen Momente

"Kurz gesagt": QED-Berechnungen als solche erschienen und erscheinen mit zunehmender Genauigkeit auch zunehmend selbstprophetisch, da als „historisch dynamische Referenz“ die Meßergebnisse letztendlich die Renormierungstaktik steuer(te)n. Bereits die (konstruierte) Axiomatik des „Renormierungsformalismus“ ist diskussionswürdig, um es moderat auszudrücken. Die Geschichte gibt hier exemplarisch eine praktische Vorstellung von dem mathematischen und zeitlichen Aufwand, sowie der „Fehlerlast“ selbst der ersten Rechnungen, die im Verhältnis zu Korrekturen höherer Ordnung zu den »extrem einfach lösbaren« gehör(t)en. In der Folgezeit wurden stetig diverse mathematische Ergänzungen und Umformungen durchgeführt, um das theoretische Ergebnis den jeweils veränderten experimentellen Ergebnissen iterativ anzupassen. Das war und ist aber nur möglich, weil es sich um ein rein mathematisches Modell handelt, welches mit dem Umstand "spielt", dass denkmodell-inhärente Unendlichkeiten jedwede Addition oder Subtraktion vertragen. Wäre die (Störungs-)Theorie "präziser", gäbe es keine Möglichkeit im Hinblick auf "neue" Messwerte theoretische Anpassungen nachzuliefern.

Die heutige propagierte Berechenbarkeit entspricht der Entfernung Erde-Mond mit sprichwörtlicher Haaresbreite-Genauigkeit. Messtechnisch kommt die Frage auf, ob die Information verloren gegangen ist, dass exemplarisch der propagiert messbare „Spiegelstrom“ oder „Spin-Flip“ einzelner Elektronen und Protonen, beispielsweise in der Doppel-Penning-Falle, u.a. bedeutet, dass die makroskopische Messapparatur - bestehend aus einer Vielzahl von mikroskopischen Details - als „quantenmechanischer Beobachter“ (k)einen Einfluss auf die Beobachtung (Messung) nimmt.

Zur Erinnerung: „Zu jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das zu messende System nötig, der das System unter Umständen empfindlich stört. Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“ Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein praktisch durchführbares Experiment kann jedoch nur die Energie in einem Bereich mit verwaschenen Grenzen liefern.“  [Aussage Werner Heisenberg 1931]

 

Ein Vorgeschmack auf das, was die jetzige Theoretische Physik nachhaltig erschüttern wird, sobald es jemand mit Einfluss wagt und schafft darüber in Fachmagazinen zu berichten...

Ohne viele Worte direkt zur dokumentierten Beobachtung...

Bemerkenswert ist die Tatsache, dass die experimentellen Ergebnisse, sofern man diese ohne theoriebeladene Erwartungen in Richtung "leptonischer "Strukturlosigkeit" bzw. quarks-basierender Substruktur betrachtet, eine leicht feststellbare Gemeinsamkeit aufweisen. Die zusätzlichen (vermeintlich anomalen) magnetische Moment-Beiträge zu den semiklassisch zu erwartenden sind sowohl für Proton, Neutron als auch für das Elektron stets ~ 1·10-26 Joule/Tesla.

Aus rational logischen Gründen ergab sich (system-)analytisch die Frage, ob diese Beiträge eine gemeinsame Ursache haben.

Die Annahme, dass diese Beiträge zum magnetischen Moment der materiebildenden primären Ladungsträger in einem äusseren Magnetfeld messungsinhärent aus dem Feld kommen und nicht intrinsisch sind, wurde zahlenanalytisch, naturphilosophisch als auch formal untersucht und bestätigt.

Mit anderen Worten

Das generelle Problem - aus naturphilosophischer Sicht - der theoretischen Verfeinerung zur Ermittlung (vermeintlich anomaler) magnetischer Momente im Rahmen der Quantenelektrodynamik (QED) und der Quantenchromodynamik (QCD) ergibt sich aus dem phänomenologischen „Umstand“, dass der anomale Teil nicht intrinsisch ist, sondern stets aus dem  messungsinhärenten Magnetfeld selbst stammt, der von den zu untersuchenden Teilchen im Messfeld induziert wird, wie explizit bei Elektron, Proton und Neutron gezeigt wird. In einfachen Worten: Es wird von den Standardmodell-Protagonisten zur Anatomie der magnetischen Momente sozusagen »kolossal epizyklisch« das Thema verfehlt. Des Weiteren: Die experimentell gestützten (Zahlen-)Analysen und die resultierend phänomenologisch begründete Formalisierung - im Denkmodell Masse-Raum-gekoppelter Objekte - demontieren die Annahme (asymmetrisch) Quarks-Seaquarks-Gluonen-substrukturierter Protonen und Neutronen.

Nicht das es unbedingt nötig gewesen wäre, die QED-Trumpfkarte (bereits jetzt) zu "stechen", da viele andere alternative Denkmodellaspekte, wie die Berechnung der Neutronenmasse, die exakte Berechnung des Protonenradius oder die beste theoretische Voraussage der Grundzustandsenergie des Wasserstoffatoms, die Berechnung der 3K-Hintergrundstrrahlung, die Herleitung der Sommerfeldschen Feinstrukturkonstanten,... alles jeweils ohne QED und phänomenologisch begründet, formal-analytisch einfachst, skalenkorrespondierend und konsistent, bereits darauf hinweisen, dass diese Denkmodellalternative, namens Elementarkörpertheorie (kurz EKT), fundamental ist und einen Paradigmenwechsel bedeutet, der die letzten 120 Jahre Theoretisches Physikgeschehen als bisher größten, komplexesten Wissenschaftsirrtum identifiziert. ("Watch & learn", genauer lese und lerne). 

 

       

 

 

 

 

 

Im Hinblick auf naturphilosophisch wertvolle Aspekte verkörpert die formal logische Argumentation die Basis des konstruktiv kritischen Denkens und Handelns. Der Kritik eines bestehenden Denkmodells „folgt“ zwingend ein "neues" Denkmodell, sofern ein nachhaltiger Erkenntnisgewinn angestrebt wird. Jede noch so fundierte Kritik bedarf einer konstruktiven Alternative, solange diese nicht existiert „verpufft“ selbst die „beste“ Kritik.

Funktionaler Beginn

Denkmodelle (zur Materiebeschreibung) können nur wissenschaftliche Relevanz besitzen, wenn sie auf einem theoretischen Fundament beruhen, dessen Axiome untereinander logisch konsistent sind und zu einer mathematisch hinreichend widerspruchsfreien Theorie führen.

Naturphilosophischer Beginn

Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten, wie Gravitationskonstante, kleinste (skalare) Wirkung (Stichwort Plancksche Wirkungsquantum h) oder Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nur innerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.

Aphoristisch ausgedrückt...

Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell.

Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.

Erkenntnistheoretisch ist der Weg eines Realobjekt orientierten Denkmodells vorgezeichnet

Der Beobachtung folgt die Formalisierung

In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

 

Die seit mittlerweile mehr als 100 Jahren vorherrschend inverse Methodik

Sowohl das Standardmodell der Kosmologie (ΛCDM-Modell), exemplarische Stichworte Einstein-Friedmann-Gleichungen, Robertson-Walker-Metrik, Dunkle Energie als auch das Standardmodell der Teilchenphysik (SM), Stichworte Lagrangedichte, Higgs-Mechanismus, Neutrinos, zeichnen sich dadurch aus, dass zahlreich postulierte Theorieobjekte und postulierte Wechselwirkungen dieser als "Resultate" eines mathematischen Modells, indirekt beobachtet werden. Der Formalisierung folgt die (gewünschte) Beobachtung. Bei genauer Sicht handelt es sich aber stets um stark theoriebeladene Versuchsergebnisinterpretationen. Das SM kennt keinen einzigen direkten Nachweis einer postulierten Theoriegröße. Das ΛCDM-Modell krankt – losgelöst von konkreten Ansätzen - an einer fundamentalen Randbedingung. Bei allen kosmologischen Beobachtungen handelt es sich nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein als vermutet. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.

Mit anderen Worten...

Realobjekt-Forschung geht von reproduzierbaren, empirischen Befunden aus und bemüht sich dann um Systematisierung, Verallgemeinerung und ein „theoretisches Verständnis“.

 

Im heutigen standardmodell-orientierten Denken werden hingegen theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Dass SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und "unerreicht" auf die Spitze getrieben. Dort thront stellvertretend für allerlei Unwissenschaftliches die so genannte Confinement-These.

 

 

Dokumentiert und analytisch betrachtet, läßt sich u.a. feststellen:

In der »Modernen Theoretischen Physik« geht es bei genauer Betrachtung seltsamerweise häufig um die Bewahrung bestehender Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind meist Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet. Wie wir alle tendieren auch die (Theorie affinen) Experimentatoren dazu, einen Misserfolg bewusst und unbewusst zu vermeiden, und weichen einer Widerlegung ihres Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird oft vom Wesentlichen abgelenkt. Moderne Denkmodelle basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich in theorierelevanten Experimenten "früher oder später" als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Korrekturen vorgenommen respektive Erweiterungen postuliert. Das können (neue) virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik konterkariert. Das waren aber auch ganze Neuformulierungen wie die »Elektroschwache Theorie«. 

 

 

Voraussetzungen für die Gestaltung eines epistemologisch bedeutenden Denkmodells

Zum konstruktiven kritischen Denken und Handeln gehören Fähigkeiten und Fertigkeiten

 

…die Fähigkeit der Mustererkennung und beobachteten zahlenmäßigen Auffälligkeiten

…die Fähigkeit Argumente zu identifizieren

…die Fähigkeit die Qualität der Argumente prüfen zu können

…die Fertigkeit Alternativen identifizieren zu können

…die Fertigkeit Alternativen formulieren zu können.  

… die Fertigkeit (das Handwerk) zu formalisieren, sofern es formalisierbar ist. Physikalische Denkmodelle müssen ausnahmslos formalisierbar sein, denn nur im Rahmen der Formalisierung sind Denkmodell-Voraussagen möglich, die im Experiment verifiziert respektive falsifiziert werden können.

Ein naturphilosophisch wertvolles physikalisches Denkmodell ist phänomenologisch begründet, konsistent, sowohl mathematisch als auch plausibel verstehbar, minimalistisch, universell ("skalen-korrespondierend") und experimentell direkt überprüfbar.

[1] Theorieforderung und empirischer Befund

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen.

Beispiel: Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann.

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Bedeutet im Klartext: Postuliert masselose Eichbosonen bewegen sich mit Lichtgeschwindigkeit. Dass diese Denkmodell-Idee zum Scheitern verurteilt war/ist, sollte bereits jedem Normalbegabten verständlich sein. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt", zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM-postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen.

Ohne Übertreibung läßt sich bereits an dieser Stelle Folgendes kurz zusammenfassen: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Der Higgs-Mechanismus "lebt", salopp formuliert, zu 99% von unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer) Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch die folgend postulierten "gluonenbasierenden" Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden, auch nicht beobachtbar sind.  Streng genommen ist der Umstand, dass das SM mittels Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche allesamt nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse.

Auch postulierte Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, daß man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen  im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (mathematik-)gläubigen Menschen ins "Spiel".

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte."    Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammen aus der Quantenmechanik (QM). Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

 

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, indem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung "entwickelt" werden kann (Fourier-Reihe):

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die (ganzzahlige) Quantisierung „banalerweise“ aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Das der Nobelpreis für Physik zum ersten Mal 1901, „damals“ für die Untersuchung der nach ihm benannten Strahlung, an (Wilhelm Conrad) Röntgen vergeben wurde, ändert nichts an der Ideologie zur Bewertung theoretischer Konzepte. Waren die Folgejahre noch geprägt durch die Würdigung experimenteller Physik, so begann in den 1930er Jahren die „Zeit der Wahrscheinlichkeiten und freien Parameter“.

Die, aus naturphilosophischer Sicht tragikomische Denkrevolution ist, spätestens seit Vergabe des Nobelpreises für Physik des Jahres 1932 an Werner Heisenberg für die Begründung der Quantenmechanik, auch ein Denkdogma. Die Nobelpreisträger des Jahres 1933 Erwin Schrödinger und Paul Dirac (1932 wurde kein Nobelpreis für Physik verliehen) untermauerten die Würdigung Phänomenologie befreiter Theoriekonzepte. 

 

"Am Rande bemerkt"

Der nobelpreisgekrönte Irrtum

1938 erhielt Enrico Fermi für seine Arbeiten den Nobelpreis für Physik, obwohl seine Interpretation des Neutronenexperiments (Erzeugung von „Transuranen“) nach späterem Kenntnisstand eine fehlerhafte Spekulation ohne Beleg war. Bedenken gegen Fermis Resultate erschienen allenthalben in wissenschaftlichen Mitteilungen. Aristide von Grosse, ein früherer Mitarbeiter Hahns, machte geltend, dass es sich bei einem der angeblichen Transurane um Vertreter des von Meitner und Hahn sechs Jahre zuvor entdeckten Protaktiniums mit der Ordnungszahl 91 handeln könne. Die Gruppe Meitner-Hahn-Straßmann verwarf diesen Gedanken. Sie entschied: Fermi hat recht. Das Trio selbst glaubte weitere Transurane mit Ordnungszahlen bis zu 96 gefunden zu haben und entwickelte eine plausible Theorie für ihre Entstehung. Die Erfolgsmeldungen aus Berlin mögen dazu beigetragen haben, dass alsbald an mehreren anderen Instituten Transurane gefunden wurden und schließlich Enrico Fermi 1938 den Nobelpreis für seine Entdeckung erhielt. In Wirklichkeit aber waren diese neuen Stoffe allesamt keineswegs „transuran“, sondern Vertreter längst bekannter Elemente mit mittleren Plätzen im Periodensystem. An der verwendeten Mathematik in der falschen Theorie zur Erzeugung von Transuranen lag es jedenfalls nicht. Fermi durfte seinen Nobelpreis behalten obwohl seine dem zu Grunde liegende Arbeits-Leistung keine war. Er bekam und behielt (s)einen Nobelpreis für  »FAKE NEWS«, wie man heute sagen würde. Dieser peinliche Skandal ist kaum bekannt und wird auch nicht (populärwissenschaftlich) von den einschlägigen Wissenschaftsmagazinen kommuniziert.

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert. Gemäß Quark-Parton-Modell ist ein tiefinelastisches Streuereignis (:DIS deep inelastic scattering) als eine inkohärente Überlagerung elastischer Lepton-Parton Streuprozesse zu verstehen.

 

Brigitte Falkenburg schreibt dazu in Particle Metaphysics: A Critical Account of Subatomic Reality (2007) u.a.

"Es muss Schritt für Schritt transparent gemacht werden, was Physikerinnen und Physiker selbst als empirische Basis für das heutige Wissen der Teilchenphysik ansehen. Und es muss transparent sein, was sie im Einzelnen meinen, wenn sie von subatomaren Teilchen und Feldern sprechen. Die Weiterverwendung dieser Begriffe in der Quantenphysik führt zu ernsthaften semantischen Problemen. Die moderne Teilchenphysik ist in der Tat der härteste Fall für Inkommensurabilität im Sinne Kuhns"....

..."Schließlich ist die Theorieabhängigkeit ein schlechtes Kriterium, um zwischen sicherem Hintergrundwissen und unsicheren Annahmen oder Hypothesen zu unterscheiden."

... "Die subatomare Struktur existiert an sich nicht wirklich. Sie zeigt sich nur in einem Streuexperiment mit einer bestimmten Energie, also aufgrund einer Wechselwirkung. Je höher der Energietransfer bei der Wechselwirkung ist, desto kleiner sind die gemessenen Strukturen. Hinzu kommt, dass nach den Gesetzen der Quantenfeldtheorie bei sehr hohen Streuenergien neue Strukturen entstehen. Die Quantenchromodynamik (d. h. die Quantenfeldtheorie der starken Wechselwirkung) besagt, dass je höher die Streuenergie ist, desto mehr Quark-Antiquark-Paare und Gluonen im Inneren des Nukleons entstehen. Nach dem Modell der Streuung in diesem Bereich führt dies wiederum zu Skalierungsverletzungen, die tatsächlich beobachtet wurden.44 Dies wirft ein neues Licht auf Eddingtons alte Frage, ob die experimentelle Methode zur Entdeckung oder zur Herstellung führt. Offenbart die Wechselwirkung bei einer bestimmten Streuenergie die gemessenen Strukturen oder erzeugt sie diese?

...“Es ist nicht möglich, einen gemessenen Querschnitt auf seine individuelle Ursache zurück zu führen. Keine Kausalgeschichte setzt einen gemessenen Formfaktor oder eine Strukturfunktion mit seiner Ursache in Beziehung“...

...“Mit den in Teilchenbeschleunigern erzeugten Strahlen kann man weder in das Atom hineinschauen, noch subatomare Strukturen sehen, noch punktförmige Strukturen im Inneren des Nukleons beobachten. Solches Gerede ist metaphorisch. Das einzige, was ein Teilchen sichtbar macht, ist die makroskopische Struktur des Targets“... 

...“Niels Bohrs Quantenphilosophie...Bohrs Anspruch war, dass die klassische Sprache unverzichtbar ist. Dies hat bis heute Gültigkeit. Auf der individuellen Ebene von Klicks in Teilchendetektoren und Teilchenspuren auf Fotos müssen alle Messergebnisse in klassischen Begriffen ausgedrückt werden. Die Verwendung der bekannten physikalischen Größen Länge, Zeit, Masse und Impuls-Energie auf subatomarer Ebene ist in der Tat auf eine Extrapolation der Sprache der klassischen Physik auf den nichtklassischen Bereich zurückzuführen.“

 

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen wurden und werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, also schlicht willkürlich ergebnisorientiert "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.     

Auf Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und Inkonsistenzen, die selbst von SM-Gläubigen (an)erkannt werden, wünschen die SM-Aktivisten, dass mathematische Erweiterungen „Abhilfe“ schaffen. Die angestrebte theoretische Zukunft der Standardmodellphysiker ist u.a. die Supersymmetrie (SUSY). Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet aber bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, dass das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik nicht, wie gewünscht, konstruktiv erweitert sondern demontiert. Ein erkennbarer Vorteil der SUSY-Forscher: Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert Vollbeschäftigung.

Ein anderer Gedanke der »SM-Erweiterungs-Protagonisten« ist, sich von den jetzigen Elementarteilchen (Quarks, Leptonen) zu verabschieden und diese mittels so genannter Preonen zu substrukturieren. Nur wenn Quarks und Leptonen jetzt schon nulldimensional sind, welche „infinitesimale Steigerung“ haben dann Preonen inne?

- soweit zu den ersten SM-„Auffälligkeiten“ -

 

Zwischenfazit

Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ höhere mathematische Realität existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (höhere mathematische Realität) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Es gibt beispielsweise keine physikalische Grundlage für die Herleitung der Feldquantisierung. Quantenfeldtheoretische Betrachtungen sind „realobjektbefreite“ mathematische Denkmodelle. Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.

Um die vielfältigen Zusammenhänge gesamtheitlich durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Das Sammelsurium an mathematischen Möglichkeiten führt(e) u.a. zu einer stetigen Veröffentlichungswelle von theoretischen Beliebigkeiten.  

 

 

Elementarkörper basierende Korrespondenz im "aphoristischen Bild"

 ... vom Elementarkörper bis zum Kosmos