Wissen ist ein Privileg. Die Weitergabe eine Pflicht.

Dirk Freyling unabhängiger Forscher & Künstler

[Künstlername AlexDdaher auch adf als Autorenkürzel]

contact adf
data protection info

 

 

Wohliges Dauer - Baden im eigenen Denksaft

Was passiert, wenn "plötzlich und unerwartet" der Stöpsel gezogen wird?

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Ein Paradigmenwechsel der anderen Art

 

Vorwort

Es folgt eine "punktuelle" Einführung zum Thema wissenschaftlicher Irrungen und wissenschaftlicher Ideen. Die Irrung wurde mit dem Nobelpreis gewürdigt, die Idee wurde fatalerweise nie von der etablierten Modellphysik  weiter verfolgt.

         

1938 erhielt Enrico Fermi für seine Arbeiten den Nobelpreis für Physik, obwohl seine Interpretation des Neutronenexperiments (Erzeugung von „Transuranen“) nach späterem Kenntnisstand eine fehlerhafte Spekulation ohne Beleg war. Bedenken gegen Fermi's Resultate erschienen allenthalben in wissenschaftlichen Mitteilungen. Aristide von Grosse, ein früherer Mitarbeiter Hahns, machte geltend, dass es sich bei einem der angeblichen Transurane um Vertreter des von Meitner und Hahn sechs Jahre zuvor entdeckten Protaktiniums mit der Ordnungszahl 91 handeln könne. Die Gruppe Meitner-Hahn-Straßmann verwarf diesen Gedanken. Sie entschied: Fermi hat recht. Das Trio selbst glaubte weitere Transurane mit Ordnungszahlen bis zu 96 gefunden zu haben und entwickelte eine plausible Theorie für ihre Entstehung. Die Erfolgsmeldungen aus Berlin mögen dazu beigetragen haben, dass alsbald an mehreren anderen Instituten Transurane gefunden wurden und schließlich Enrico Fermi 1938 den Nobelpreis für seine Entdeckung erhielt. In Wirklichkeit aber waren diese neuen Stoffe allesamt keineswegs „transuran“, sondern Vertreter längst bekannter Elemente mit mittleren Plätzen im Periodensystem.

Selbst in dem Wikipediabeitrag zu Enrico Fermi ist zu lesen: „1938 erhielt Fermi für seine Arbeiten den Nobelpreis für Physik (laut offizieller Begründung für die Identifizierung neuer radioaktiver Elemente produziert nach Bestrahlung mit Neutronen und seine Entdeckung von Kernreaktionen, die durch langsame Neutronen bewirkt werden), obschon seine Interpretation des Neutronenexperiments (Erzeugung von Transuranen) nach heutigem Kenntnisstand [K] falsch war.”

[K] Hier wird (personenschonend, wissenschaftsschonend) “implizit gelogen“ , denn dies war als bald bekannt und ist nicht erst nach heutigem Kenntnisstand falsch gewesen.
An der verwendeten Mathematik in der falschen Theorie zur Erzeugung von Transuranen lag es jedenfalls nicht. Fermi durfte seinen Nobelpreis behalten obwohl seine dem zu Grunde liegende Arbeits-Leistung nachweislich keine war. Er bekam und behielt (s)einen Nobelpreis für »FAKE NEWS«, wie man heute sagen würde. Dieser peinliche Skandal ist kaum bekannt und wird auch nicht (populärwissenschaftlich) von einschlägigen Wissenschaftsmagazinen kommuniziert.

Das die Denkmodellphysik immerschon versuchs-interpretationsproblematisch war, ist ein wesentlicher Aspekt der zu willkürlichen Annahmen führt(e). Bei genauerer Sicht kann man ab Mitte des 20. Jahrhunderts auch einen stark zunehmenden Hang zur Irrationalität respektive "altbekannten" esoterisch geprägten Metaphysik [MP] feststellen.  

[MP] Zur Erinnerung, Kenntnisnahme und Selbstanalyse

Georg Ernst Stahl (1659 - 1734) war neben Johann Joachim Becher (1635 - 1682) ein Hauptbegründer der Phlogistontheorie

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier (1743 - 1793) „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, dass das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

 

"am Rande" bemerkt...

KUNST & WISSENSCHAFT im Gleichklang

Formalisierter Expressionismus

Auffällig und bemerkenswert ist, dass die Entstehung und der Ausbau der Quantenmechanik sowie die Einführung der Speziellen (SRT) und später der Allgemeinen Relativitätstheorie (ART) zeitgleich Anfang des 20. Jahrhunderts einher geht mit dem Expressionismus. Beobachtungs-These: Quantenmechanik und Relativitätstheorie waren/sind formalisierter Expressionismus. Der Expressionismus „verlor“ seine (figurative) Gestalt und wurde dann in der Folge zum abstrakten Expressionismus (siehe z.B. Werke von Jackson Pollock, Willem de Kooning und Mark Rothko, 1940er bis 1950er Jahre). Sowie die QM zur noch abstrakteren Quantenelektrodynamik (u.a. mit virtuellen Theorie-Entitäten) wurde. Der Neoexpressionismus der 1960er Jahre (siehe exemplarisch Arbeiten von Georg Baselitz) entsprechen dem Versuch der Quantenchromodynamik (QCD) nach außen hin ein „Gesicht zu geben“, wobei das der QCD zu Grunde liegende SM keinerlei sinnerfahrbare Anschauung besitzt.

Das „Gesicht“ im SM

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert.

Geschichtlicher »fun fact« mit weitreichenden Konsequenzen

Als Peter Higgs (1929 - 2024) 1964 "seinen" »Higgs-Mechanismus« vorstellte befand er sich in der »LSD-Flower-Power-Zeit« deren damalige wissenschaftliche Zeitgeist-Bewertung von Protagonisten wie dem Wissenschaftsphilosophen Paul Feyerabend (1924 - 1994) geprägt waren, dessen Idee von Wissenschaft lautete: "Anything goes". Das erklärt möglicherweise warum Higgs seine, aus Standardmodellsicht "bahnbrechenden", Ausführungen mit irrealen Tachyonen startete.

[Tachyonen (altgr. ταχύς tachýs ‚schnell‘) sind hypothetische Teilchen, die sich schneller als mit Lichtgeschwindigkeit (superluminar) bewegen. Es gibt offensichtlich keine experimentellen Hinweise, dass solche Teilchen existieren.]

Higgs Irrationalität war damals gern gesehen, Peter Higgs war sozusagen ein Wissenschafts-Avantgardist im Sinne Feyerabends.

Feyerabend passt zu Feierabend mit der Bedeutung, die eigentliche Arbeit ist beendet. Rückblickend kreierte und lebte Peter Higgs im wissenschaftlichen Feierabend, bedeutet, phänomenologisch, rational begründete Denkmodellphysik-Arbeit fand fortan nicht mehr statt.

 

Zum (Un-)Verständnis

Postulierte Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungs-Punkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen  im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Rational betrachtet: U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kinder(garten)sprache" kommen mit dem Theoretiker als "verwirrten", Mathematik gläubigen Menschen ins "Spiel".

Schlicht betrachtet handelt(e) es sich - damals wie heute (siehe als prominente Beispiele Dunkle Materie und Dunkle Energie,...) - stets um Fantasiekonstrukte, die die Fehlstellen des Wissens willküraffin füllen (sollen). Von einer autoritären Minderheit als „nützliche“ Theorieparameter eingeführt, wurden und werden diese sodann heute von servilen Mainstream-Wissenschaftsmagazinen und in der Folge populärwissenschaftlich weit verbreitet und letztendlich von der Masse als wissenschaftliche Errungenschaften "verdaut". Wir erleben mit der heutigen etablierten Standardmodellphysik ein erneutes, doch diesmal deutlich komplexeres, Phlogiston-Drama. "Willkommen" im Barock 2.0.

 

 

      

Niels Bohr (1885 - 1962) äußerte bereits 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand.

 

Paradigmenwechsel

Wie gezeigt wird, basiert die Theoretische Modellphysik des 20. und 21. Jahrhunderts auf der Annahme, das Raum keine Energieform darstellt und Raum Masse entkoppelt ist. Dieses Denkmodellkonzept ist nicht nur unpraktisch sondern auch, experimentell nachgewiesen, haltlos. Alle diesbezüglich relevanten Experimente bestätigen die These, das Raum eine Energieform ist. Daraus folgt: Eine Masse-Raum Kopplung als Denkmodellgrundlage führt zu einer signifikanten Erweiterung des Energieerhaltungssatzes. Das hat weitreichende Konsequenzen, die die Denkmodellphysik seit Einführung der Quantenmechanik und Relativitätstheorie als phänomenologisch unbrauchbar identifiziert. Die »Neue Physik« der Masse-Raum Kopplung stellt einen nachhaltigen Paradigmenwechsel dar.

statt  4 Grundkräften [GK]     →    Masse - Raum  Kopplung

[GK] Ergänzend ist hier zu bemerken: Der von der Systemphysik verwendete Begriff Grundkraft ist irreführend, da es sich im Rahmen des Standardmodells der Kosmologie (ΛCDM-Modell) bei der Gravitation um Gleichungssysteme (Einstein, Friedmann) handelt, die in einem mechanischen Sinne keine Kraft beschreiben. Die Schwache und Starke Wechselwirkung sowie die elektromagnetische Wechselwirkung sind gleichfalls, bei genauer Betrachtung, erst einmal masselose, "kraftlose", rein mathematische Gebilde. An dieser Stelle sei bereits auf Folgendes hingewiesen: Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Masselose Eichbosonen bewegen sich gemäß Formalismusforderung mit Lichtgeschwindigkeit.  Das SM beschreibt Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen). Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung verletzt, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM- postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% (!!!) ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden.

 

 

Umfang und Art der Ausführungen

Es existiert kein Anspruch auf Vollständigkeit. Übersteigerungen, plakative Aussagen und - hier und da - Satire, dienen der unterhaltsamen Wahrheitsfindung in einem, aus wissenschaftlicher Sicht, meist unwissenschaftlichen Umfeld. Diesbezügliche Textaussagen sollen als »Reflexionskeime« zum eigenständigen Nachdenken und Recherchieren anregen. Anders als ein Buch oder ein pdf-Dokument ist die vorliegende html-basierende Präsentation (quantitativ) in Buchstärke erst genannten deutlich überlegen. Quellenhinweise können durch Link-Klicks direkt gelesen und  deren Inhalte aufgenommen werden, es lassen sich zum Verständnis Videosequenzen einbauen, nachträgliche Text-Korrekturen und Informationserweiterungen sind technisch schnell und einfach durchzuführen.

 

Inhaltliches

Auch wenn die folgenden Ausführungen umfangreich erscheinen, so sind sie doch nur fragmentarisch. Die Sachlage, zahlreiche weitere innere Denkmodell-Widersprüche, sowohl phänomenologischer als auch axiomatischer Natur, finden hier zum Teil keine oder nur wenig Erwähnung. Das ist Aussage orientiert insofern nicht problematisch, da das Vorgetragene bereits die Beliebigkeit und Irrationalität heutiger Standardmodelle im Bereich der Theoretischen Denkmodellphysik deutlich aufzeigt.

 

Zur Form des Vortrages

Es existieren zahlreiche paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. 

Freude an der Wirklichkeit

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie respektive des alternativen Denkmodells zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

 

[BASISSUCHE  AlexDirkFreyling 45ndf  Foto von T.B. ARTSTOFF Galerie Südturm]

Zeitreichtum ist in jedem Fall ein Muß. Leser die bereits Schwierigkeiten haben längere Online-Medien-Texte "gängiger" populärwissenschaftlicher Anbieter konzentriert und nachhaltig verstehend zu lesen, kommen mit diesem Handicap hier nicht weit.

 


 

Wenn das Unvorstellbare wahr wird

Es ist nicht leicht einem "normal-konditionierten" Menschen zu erklären, der zumindest im Kern einer Sache Vernunft, Logik, Konsistenz, Verstand und Verhältnismäßigkeit erwartet, dass dem oft nicht so ist. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Nun alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Die Standardmodelle der Theoretischen Denkmodellphysik machen/sind da keine Ausnahme. Sowohl das Standardmodell der (Elementar-)Teilchenphysik (SM) und auch das Standardmodell der Kosmologie (ΛCDM-Modell) sind, ähnlich dem bekannten geozentrischen (ptolemäisches) Weltbildes [geo], bei genauer Sicht, schon von Anbeginn, auf Grund gravierender phänomenologischer Widersprüche, Inkonsistenzen, extremer Postulat-Willkür und vielen weiteren, teils axiomatisch begründeten, Falsch- und Fehlinterpretationen widerlegt. Warum das so ist und sich das aber keiner vorstellen kann, wird ausgiebig und nachvollziehbar erörtert.

 

"Natur lässt sich nicht formalisieren. Was sich formalisieren lässt, sind ausschließlich Denkmodelle zur Beschreibung der Natur."           Dirk Freyling

 

Übergeordnet stellt sich die Frage, inwieweit Akademisierungen von Naturvorgängen die Natur beschreiben oder eher von Moral und Ideologie beeinflusst werden, um eine Massenmeinung zu etablieren bzw. zu festigen. U.a. mit dem Ziel über ein Fachgebiet hinaus - interdisziplinär vermeintlich verstehbar – Lehraufträge und Forschungsgelder zu begründen und von der Allgemeinheit finanzieren zu lassen. Hier sind Spielräume für metaphysische Betrachtungen, sprachliche Übertreibungen und instrumentalisierte Ungewissheiten deutlich besser geeignet, Massen zu mobilisieren als "schnöde" Denkmodellstringenz. Nicht umsonst heißen die nicht detektierbaren Objekte und deren nicht detektierbare Wechselwirkungen der etablierten Standardmodelle suggestiv Dunkle Materie, Dunkle Energie, Dunkle Photonen. Mystifizierung und wissenschaftlich inszenierte Unwissenheit gehen hier Hand in Hand mit religiösen westlichen Glaubensbekenntnissen. Solche Denkmodelle besitzen eine deutlich größere Strahlkraft für den "gemeinen" populärwissenschaftlich Interessierten als formal-analytisch, determinierte Beschreibungsmodelle.

Die "moderne" Elementarteilchenphysik "nährt(e)" sich von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin wird so "kreativ" postuliert, "entdeckt" und "modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der eigenen Grenzen bestätigt, ist keine große Überraschung, da die Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um "alte" Thesen und Teilchen zu "retten".

 

Der vorliegende - interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes, Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt.

Zum Kennenlernen werden einige Sachverhalte und Denkanstöße an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest. Die Texte sind so geschrieben, dass mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an der einen oder anderen Stelle, ein Begriff nicht bekannt sein, oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen. Denn im weiteren Kontext wird das eine oder andere Unverstandene bereits verständlich.

Da Mathematik nicht zwischen Staub und Staubsauger unterscheiden kann, ist in einem allgemein verständlichen Denkmodell Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

Nicht die Mathematik ist in den Standardmodellen "falsch", sondern die mathematisch formulierten, willkürlich postulierten Denkkonstrukte sind es, die bei genauer Sicht schon einfachster Logik entbehren und letztendlich keinen Erkenntnisgewinn generieren. Die etablierte Meinung, dass theoretische Aspekte der Physik nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede nachhaltig Erkenntnis bringende, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt.

Präzise mathematische Formulierungen meinerseits sind zwar stets möglich, werden aber dann von dem Gros der Leser nicht verstanden, da das fachlich notwendige Detailwissen auf Grund der stark mathematisierten, formalen Inhalte meist nur von denen verstanden werden kann, die es nicht hören respektive lesen wollen, da es nachweislich die Standardmodelle ad absurdum führt, die von den Protagonisten dieser vertreten werden. Glücklicherweise lassen sich die zahlreichen Irrationalitäten der Standardmodelle bereits mit wenig Mathematik deutlich erörtern.

 

 

Worum geht es?

Um einen nachhaltigen Paradigmenwechsel.

Was ist hier mit Paradigmenwechsel gemeint?

Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik.

[SM] Standardmodell der (Elementar)-Teilchenphysik (SM)

[ΛCDM] Kosmologisches Standardmodell (ΛCDM-Modell)

Was tritt an deren Stelle?

Ein deutlich anschaulicheres, effektiveresinterdisziplinär vermittelbares,  mathematisch einfacheres Denkmodell[EKT], welches vereinheitlichend und skalenübergreifend Mikro- und Makro-Kosmos voraussagefähig beschreibt.

[EKTDie Elementarkörpertheorie (kurz EKT) befasst sich insbesondere mit Antworten auf die Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen. Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig. 

 

Welche Argumente sprechen für diesen Paradigmenwechsel?

Das Parsimonieprinzip

[: Ockhams Rasiermesser     lex parsimoniae    Sparsamkeitsprinzip]

Die streng analytisch ↓ motivierte Verwendung

des Prinzips der Parsimonie

in den vorliegenden Ausführungen

               

Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden.

Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft. Des Weiteren ist das Denkmodell am geeignetsten, welches neben der verwendeten Mathematik phänomenologisch erfassbar und konsistent, sowohl (skalenübergreifend) den Mikro- als auch den Makro-Kosmos, beschreiben kann, sowie einen formalen und phänomenologisch begründbaren Zusammenhang zwischen Licht (genauer PhotonenPh) und Materie erfasst.

[Ph] Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Albert Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais  "’Raffiniert ist der Herrgott’… Albert Einstein  Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413].

 

 

 

 

[geo] Da war mal was ganz Großes...

Heute regt es höchstwahrscheinlich niemanden mehr auf, wenn rückblickend über den Wechsel vom »Ptolemäischen Weltbild« zum »Heliozentrischen Weltbild« berichtet wird. Das war jedoch zu der damaligen Zeit eine extreme Situation.

Es gab zwar bereits im antiken Griechenland Überlegungen, dass die Erde um einen fixen Punkt kreist. Dennoch war es Nikolaus Kopernikus (1473–1543), der mit seinem Hauptwerk „De revolutionibus orbium coelestium“ 1543 für eine wissenschaftliche Sensation sorgte. Er stellte ein mathematisch-naturphilosophisches Modell vor, in dem sich die Erde und die anderen Planeten auf Ellipsen um die Sonne drehten. Bis heute wird daher das heliozentrische auch als kopernikanisches Weltbild bezeichnet.

 

☼ In unserem Sonnensystem bewegen sich die Planeten nicht um die Sonne, sondern um den gemeinsamen Schwerpunkt (Baryzentrum). Dass die reale Situation komplex ist, läßt sich leicht folgend u.a. aus folgenden faktischen Gründen verstehen, da nicht nur alle Planeten sondern u.a. auch deren Trabanten (Monde) im Gesamtbild (mit)wechselwirken. Weder die Massen der Sonnensystemobjekte sind hinreichend bekannt, noch ist darüber hinaus sicher, welche Objekte (Monde) noch gar nicht entdeckt wurden.

 

☼ Das geozentrische Weltbild entsprach der alltäglichen Erfahrung des Beobachters und widersprach nicht der Bibel. Die christlichen Kirchen übernahmen und verteidigten es entschieden. Das geozentrische Weltbild wurde bis zum Beginn der Renaissance nicht öffentlich hinterfragt. Erst mit Nikolaus Kopernikus, Giordano Bruno und Galileo Galilei traten ernstzunehmende Kritiker auf, die wegen der Befürwortung des »heliozentrischen Systems des Kopernikus« von der Inquisition wegen Häresie angeklagt wurden. Es ging für die Kritiker wortwörtlich um »Leben und Tod«. Tod für die, die sich gegen bestehende Ansichten auflehnten. Fakten und wissenschaftliche Argumentationen waren dem Glauben untergeordnet. Interessant zu erwähnen. Kopernikus war ein Bibelgläubiger. Er glaubte daran, dass die Erde - und damit der Mensch - im Zentrum des Kosmos steht. Sein Ziel war es, das ptolemäische Weltbild zu vereinfachen. Kopernikus will Widersprüche des Systems aus der Welt schaffen.

 

Geozentrisches Weltbild - Epizykeltheorie

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, dass die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, dass die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

Kopernikus wußte, was ihm wegen seiner Forschungs-Ergebnisse eines heliozentrischen Weltbildes von Seiten der katholischen Kirche droht. Im Vorwort der Abhandlung wendet er sich deshalb direkt an den Papst und verweist darauf, dass die gnädige katholische Kirche schon Wissenschaftlern vor ihm die Freiheit gegeben habe, über die Bahnen der Planeten nachzudenken. Tatsächlich erweist sich der Vatikan zu Kopernikus Lebzeiten gnädig – wohl auch deshalb, weil er zum Zeitpunkt des Erscheinens schon im Sterben liegt. Letztendlich kommt »De revolutionibus orbium coelestium«  1616 auf den Index verbotener Bücher, da ist Kopernikus schon lange tot: Er stirbt am 24. Mai 1543 an einem Schlaganfall.

 

 

Bevor ich – aus analytischer Sicht - konkret die unvorstellbaren Beliebigkeiten, nachweislich dokumentierten inneren phänomenologischen sowie axiomatischen Widersprüche und übergeordnet Standardmodell-Irrationales im Detail vorstelle, erinnere ich an einige Absurditäten, Fehlplanungen und „Unglaubliches“ des „Alltags“. Inwieweit das eine oder andere auch mit Korruption assoziiert ist, können sich die Leser selbst überlegen. Diese von Fachleuten sprich Experten geplanten  Real-Projekte und irrationalen Entscheidungen  sind im Vergleich zu den Standardmodellpostulaten im Bereich der Theoretischen Modellphysik und der angesiedelten Experimentalphysik nicht der Rede wert. Wer also glaubt, das Folgende wäre schon beliebig, irre und »Verarscherei auf Kosten der Steuerzahler«, der wird sich stark wundern, was (sich) Theoretische Physiker, Mathematiker und angesiedelte Programmierer „leisten“.

 

 

BELIEBIGES - IRRATIONALES

Fehlplanungsbeispiele in Theorie und Praxis - Fachleute basierende Willkür des Irrsinns

 

„Er“ weihnachtet

Der venezolanischer Staatspräsident Nicolás Maduro hat per Dekret den Beginn des Weihnachtsfests auf den 1. Oktober 2024 vorverlegt. Die Feierlichkeiten sollen bis Mitte Januar dauern. Am 10. Januar 2025 will er sich zum dritten Mal als Präsident vereidigen lassen.

Stuttgart 21

Aufbauend auf einem Vorschlag des Verkehrswissenschaftlers Gerhard Heimerl (1933 – 2021) von 1988 wurde in einem mehrjährigen Diskussionsprozess das Konzept Stuttgart 21 entwickelt und 1994 der Öffentlichkeit vorgestellt. Im Juni 1994 gaben Deutsche Bahn, Bund, Land und Stadt eine Machbarkeitsstudie in Auftrag, an der rund einhundert Fachleute mitwirkten. Die 18 Bände umfassenden Ergebnisse wurden am 16. Januar 1995 auf der Landespressekonferenz im Beisein von Ministerpräsident Teufel, Bundesverkehrsminister Wissmann, Landesverkehrsminister Schaufler, Oberbürgermeister Rommel und Bahnchef Dürr vorgestellt. Das Projekt wurde als machbar betrachtet. 

Der Baubeginn wurde mehrfach verschoben. Die im Finanzierungsvertrag vom 2. April 2009 vereinbarte Finanzierung des Bahnhof-21-Projekts belief sich auf 4,526 Milliarden Euro. Mitte 2002 wurde mit einem Baubeginn im Jahr 2005 gerechnet, mit der Inbetriebnahme im Jahr 2013, ebenso 2003, 2004 war die Realisierung zwischen 2006 und 2013 vorgesehen. In den Jahren 2001 und 2004 war die Entscheidung über den Baubeginn für 2005 geplant. Nach Abschluss der Planfeststellungsverfahren sollte anhand einer neuen Wirtschaftlichkeitsuntersuchung, unter der Voraussetzung einer gesicherten Finanzierung, die endgültige Entscheidung über die Baufreigabe erfolgen. Im Juni 2006 wurde eine Entscheidung für Herbst 2006 erwartet. Sparen wir uns hier weitere Verschiebungsdetails… Am 2. Februar 2010 begannen offiziell die Bauarbeiten. Dokumentiert ist: Anfang der 2000er Jahre lag die  Kostenprognose bei ~ 2,6 Milliarden Euro. Kritiker des Projektes hatten jedoch schon früh diese Prognose als vollkommen unrealistisch eingestuft.  Mitte Juni lag die Kosten-Prognose letztendlich bei ~ 12 Milliarden Euro. Die ursprünglich angedachte Bauzeit betrug ~ 8 Jahre. Mittlerweile hat sich die Bauzeit mindestens verdoppelt. Im Dezember 2026 soll Stuttgart 21 „in Betrieb“ gehen. (Quellen [1 2 3]) Derzeit haben sich die Kosten mehr als 4,5-facht.

 

[wallface Alltagskunst  adf 09 59ndf c-print]

 

Berliner Flughafen

Der Bau des Berliner Flughafens, der am 5. September 2006 begann, war eines der größten Bauprojekte Deutschlands Der Start des Flugbetriebs war anfangs für November 2011 geplant. Im Oktober 2020 konnte der Flughafen nach 14-jähriger Bauzeit schließlich eröffnet werden. Die Gesamtkosten für das Projekt wurden zu Baubeginn auf rund zwei Milliarden Euro geschätzt, 2018 wurde die Schätzung schließlich auf 7,3 Milliarden Euro korrigiert. [4]

Geld statt Schiffe versenken

Eigentlich sollte die "Gorch Fock" 2015 (Segelschiff der Marine) in rund sechs Monaten saniert werden. Am Ende war sie fast sechs Jahre in der Werft. Im Jahr 2012 wurden Reparaturen der Gorch Fock für rund zehn Millionen Euro notwendig, obgleich das Schiff erst 2010 generalüberholt worden war. Von Dezember 2015 bis September 2021 befand sich das Schiff zu einer vollständigen Grundinstandsetzung durch die Elsflether Werft in Docks der Bremerhavener Werft Bredo. Für die Instandsetzungsarbeiten waren zunächst 10 Millionen Euro veranschlagt worden. Am 26. Januar 2017 entschied die damalige Verteidigungsministerin Ursula von der Leyen schließlich, die Instandsetzungsarbeiten, deren Kosten auf 75 Millionen Euro veranschlagt wurden, fortzuführen. Letztendlich kostete die Sanierung 135 Millionen Euro. [5]

Elbphilharmonie

Das Projekt Elbphilharmonie begann mit der privaten Initiative des Architekten Alexander Gérard und seiner Ehefrau, der Kunsthistorikerin Jana Marko. Sie entwickelten die Idee und das Nutzungskonzept und stellten es als Alternative zum damals geplanten „Media City Port“ im Oktober 2001 dem Hamburger Senat vor.

Eine Machbarkeitsstudie bewertete im Juli 2005 auf Basis der Vorentwurfsplanung der Architekten das Projekt als technisch und wirtschaftlich machbar und schätzte die Netto-Baukosten nach vorliegendem Planungsstand auf 186 Millionen Euro. Die Grundsteinlegung erfolgte am 2. April 2007. Ursprünglich auf etwa 77 Millionen Euro geschätzt, schnellten die Kosten im Laufe der Bauzeit in die Höhe.  Nach vielen Verzögerungen und erheblichen Budgetüberschreitungen wurde die endgültige Summe auf rund 866 Millionen Euro beziffert. Diese Summe schließt sowohl die Planungs- und Baukosten als auch weitere Ausgaben für die verbesserte Infrastruktur und die öffentlichen Räumlichkeiten ein. Ursprünglich sollte das Konzerthaus im Herbst 2010 eröffnet werden. Letztendlich dauerte es 10 Jahre bis zur Eröffnung in 2017. [6]

 

Obige Beispiele repräsentieren exemplarisch nur die Spitze deutscher Steuerverschwendung respektive deutschem Steuermißbrauchs. Der Verein Bund der Steuerzahler veröffentlicht regelmäßig das so genannte Schwarzbuch zu diesem Thema. 

 

 

Künstliche Intelligenz

Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.

Es ist aus psychologischer Sicht verblüffend und spricht für den »Zeitgeist des Glaubens«, welcher das Ende der im 18.Jahrhundert gestarteten Aufklärung markiert, dass sich selbst akademisch ausgebildete Mathematiker und Physiker heutzutage ernsthaft mit der Frage beschäftigen, ob ein Algorithmus intelligent ist oder gar Gefühle hat.

Tatsache ist: Algorithmen können nur das, was man ihnen vorher einprogrammiert hat. Interdisziplinäre Weitsicht ist mitunter für die »KI« schon ein riesiges, unlösbares Problem mit fatalen Folgen.

Beispiel: Ein Informatiker, der Kurse in Python und Pandas anbietet, ging der Frage nach, warum er von Meta/Facebook ohne nachvollziehbare Begründung lebenslang bei der Schaltung von Werbung gesperrt wurde und keine Werbung mehr dort machen darf.

Python ist eine – recht populäre und bekannte – Programmiersprache. Pandas ist eine Python-Programmbibliothek zur Analyse und Darstellung statistischer Daten.

Die Annahme, dass seine Werbung lebende Tiere zum Inhalt habe, beruht auf KI, nicht auf der Einschätzung eines Menschen. Als er dagegen Beschwerde einlegte, wurde seine Beschwerde wiederum von KI beantwortet, und zwar im Ergebnis genauso sinnfrei. [7]

Bundesbehördlicher Aberglaube

Ich habe die »KI« genauer perplexity.ai folgende Frage gestellt:
Sind deutsche Bundesbehörden abergläubisch?


perplexity.ai – Antwort:

Es gibt keine Hinweise darauf, dass deutsche Bundesbehörden abergläubisch sind. [KI] Bundesbehörden in Deutschland sind staatliche Institutionen, die Aufgaben der bundeseigenen Verwaltung wahrnehmen und nach ihrer hierarchischen Stellung in oberste Bundesbehörden, Bundesoberbehörden, Bundesmittelbehörden und Bundesunterbehörden unterteilt sind. Während Aberglaube in der Bevölkerung existiert und gelegentlich thematisiert wird, beispielsweise in Bezug auf Schaltjahre, gibt es keine Belege dafür, dass solche Überzeugungen die Arbeit oder Entscheidungen der Bundesbehörden beeinflussen.

Basierend auf den verfügbaren Informationen gibt es keine Hinweise darauf, dass deutsche Bundesbehörden abergläubisch sind oder Aberglaube in ihrer Arbeit eine Rolle spielt.

Als staatliche Institutionen arbeiten Bundesbehörden auf Grundlage von Gesetzen, Verordnungen und fachlichen Vorgaben. Ihre Entscheidungen und Handlungen müssen sachlich begründet und nachvollziehbar sein. Aberglaube oder irrationale Überzeugungen haben darin keinen Platz. In den vorliegenden Quellen finden sich keinerlei Anhaltspunkte dafür, dass Aberglaube in deutschen Bundesbehörden eine Rolle spielt. Vielmehr wird betont, dass kritisches Denken und Faktenkenntnis die besten Mittel gegen jede Form des Aberglaubens sind. Zusammenfassend lässt sich sagen, dass deutsche Bundesbehörden als staatliche Institutionen auf einer rationalen und gesetzlichen Grundlage arbeiten. Aberglaube hat in ihrer Tätigkeit keinen Platz und es gibt keine Hinweise darauf, dass dies in der Realität anders wäre.

[KI]  Die »KI« - Antwort auf meine Frage ist somit eine hundertprozentige Falschaussage!

Denn: Das Bundesministerium für Arbeit und Soziales (BMAS) hatte 2019 unter Führung des nach wie vor amtierenden Hubertus Heil aus Aberglauben entschieden, dass es keine Neufassung des Sozialgesetzbuches mit der Nummer 13 geben werde, und stattdessen auf 12 gleich die Nummer 14 folgt. In Deutschland wurde gemäß Aberglauben nach dem Zwölften Sozialgesetzbuch am 12. Dezember 2019 das Vierzehnte Sozialgesetzbuch erlassen.

Obwohl das Bundesministerium für Arbeit und Soziales bestätigt(e), dass es weder über Belege noch Grundlagen verfüge, denen zufolge die Zahl 13 signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden könne, noch habe es Pläne des BMAS gegeben oder gäbe aktuell welche zur Bekämpfung der krankhaften Angst vor der Zahl 13. Folglich lägen auch keine amtlichen Informationen über entsprechende Pläne vor.

Hubertus Heil respektive das Bundesministerium für Arbeit und Soziales besitzt nach eigenen Aussagen also keine Belege und Grundlagen, dass die Zahl 13 signifikant mit erhöhten Unglücksfällen in Verbindung gebracht werden kann, er kann auch nichts zu Anzahl und Bedeutung der “Opferverbände” sagen – aber er nimmt “Rücksicht auf Empfindungen“. Das bedeutet, dass Hubertus Heil semantisch-suggestiv, ohne jegliche Faktengrundlage, lediglich aufgrund eines “ungutes Gefühls” eine unlogische Entscheidung traf. Der Staat hat hier also – auf reinem Aberglauben basierend – Logik und Rationalität ausgeblendet – mit der „Begründung“, dass auch andere nicht staatliche, unter anderem privatwirtschaftliche Unternehmen so agier(t)en. Dies lässt aus psychologischer Sicht die Schlussfolgerung zu, dass die irrationale Angst vor der Zahl 13 von Hubertus Heil und dem Bundesministerium für Arbeit und Soziales bestätigt und gefördert wird – ein verheerendes Signal für die Angstgestörten. Bei Interesse: Weitere Details zu diesem Bundesbehördlichen Aberglauben siehe meinen Gastartikel vom 8. Dezember 2023.

Die »KI« kennt hier das Reale nicht und antwortet gemäß euphemistischer Propaganda, was eine Bundesbehörde tun sollte. Fazit: »KI« ist mitunter nichts weiter als ein(e) Meinungsmacher(in), die die Realität komplett ausblendet.

Deutsche Regierungspropaganda vs. Deutscher Realität

Euphemistische Regierungspropaganda : "Die Renten sind sicher".

Nur wovon redet die deutsche Regierung hier?

Tatsachen sind: Die Niederlande verfügt mit einer Gesamtpunktanzahl von 85 Punkten von 100 möglichen Punkten über das derzeit beste Rentensystem der Welt. Dies zeigt der Mercer CFA Institute Global Pension Index (MCGPI) für das Jahr 2023. Die Schweiz belegt mit 72 Punkten den elften Platz. Das Altersversorgungssystem Deutschlands liegt im Gesamtranking mit 66,8 Punkten auf Platz 19. International lag Deutschland bereits im Jahr 2017 beim zu erwartenden Rentenniveau (in % des Netto-Einkommens) mit 50,5 % deutlich unter dem OECD-Durchschnitt. Kroatien (129,2 %) und die Niederlande (100,6 %) weisen sogar ein höheres Rentenniveau im Vergleich zum Netto-Einkommen auf... Portugal (94,9 %), Italien (93,2 %), Österreich (91,8 %), Ungarn (89,6 %), Bulgarien (88,9 %) und Luxemburg (88,4 %). Der EU-28-Durchschnitt erreichte 70,6 %, der OECD-Durchschnitt 62,9 %. Bezogen auf dem Durchschnittswert liegt Deutschland mit 50,5% ~ 20% unter diesem.

 

 

 

Wohliges Dauer - Baden im eigenen Denksaft

 

Einleitend einige kritische Aussagen und Gedanken...

Ein Statement des Physiknobelträgeres des Jahres 1976 Burton Richter aus dem Jahre 2006 : „ Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“ (Quelle: Theory in particle physics: Theological speculation versus practical knowledge, Physics Today October 2006)

Im Guardian schrieb die Theoretische Physikerin Sabine Hossenfelder am 26. September 2022 u.a. Folgendes:

“Stellen Sie sich vor, Sie gehen zu einer zoologischen Konferenz. Die erste Rednerin spricht über ihr 3D-Modell einer 12-beinigen lila Spinne, die in der Arktis lebt. Sie gibt zu, dass es keine Beweise für ihre Existenz gibt, aber es ist eine überprüfbare Hypothese, und sie plädiert dafür, eine Mission auszusenden, um in der Arktis nach Spinnen zu suchen.

Der zweite Redner hat ein Modell für einen fliegenden Regenwurm, der aber nur in Höhlen fliegt. Auch dafür gibt es keine Beweise, aber er plädiert dafür, die Höhlen der Welt zu durchsuchen. Der dritte Referent hat ein Modell für Kraken auf dem Mars. Es ist überprüfbar, betont er.

Hut ab vor den Zoologen, ich habe noch nie von einer solchen Konferenz gehört. Aber auf fast jeder Teilchenphysik-Konferenz gibt es Sitzungen wie diese, nur dass sie mehr Mathematik beinhalten. Unter Physikern ist es üblich geworden, neue Teilchen zu erfinden, für die es keine Beweise gibt, Papiere darüber zu veröffentlichen, weitere Papiere über die Eigenschaften dieser Teilchen zu schreiben und zu verlangen, dass die Hypothese experimentell getestet wird. Viele dieser Tests sind bereits durchgeführt worden, und weitere werden gerade in Auftrag gegeben…

…Unter vier Augen geben viele Physiker zu, dass sie nicht an die Existenz der Teilchen glauben, für deren Suche sie bezahlt werden…” …”Sie rechtfertigen ihre Arbeit damit, dass es sich um eine gute Praxis handelt, oder dass ab und zu einer von ihnen zufällig auf eine Idee kommt, die für etwas anderes nützlich ist. Auch ein Heer von Schreibmaschinenaffen kann manchmal einen nützlichen Satz hervorbringen. Aber ist das eine gute Strategie?”… …”Als ehemalige Teilchenphysikerin macht es mich traurig zu sehen, dass dieses Gebiet zu einer Fabrik für nutzlose akademische Studien geworden ist….

Seit den 1980er Jahren haben die Physiker einen ganzen Teilchenzoo erfunden, dessen Bewohner Namen tragen wie Preonen, Sfermionen, Dyonen, magnetische Monopole, Simps, Wimps, Wimpzillas, Axionen, Flaxionen, Erebonen, Acceleronen, Cornucopionen, Riesenmagnonen, Maximonen, Makros, Wisps, Fips, Branonen, Skyrmionen, Chamäleons, Cuscutonen, Planckonen und sterile Neutrinos, um nur einige zu nennen… Alle Experimente, die nach diesen Teilchen suchten, gingen leer aus…

Experimentelle Teilchenphysiker wissen um das Problem und versuchen, sich von dem zu distanzieren, was ihre Kollegen in der Theorieentwicklung tun. Gleichzeitig profitieren sie davon, denn all diese hypothetischen Teilchen werden in Förderanträgen verwendet, um Experimente zu rechtfertigen. Und so halten auch die Experimentalphysiker ihren Mund”…

In einigen Fällen besteht die Aufgabe der neuen Teilchen darin, eine Theorie ästhetisch ansprechender zu gestalten, aber in vielen Fällen besteht ihr Zweck darin, statistische Anomalien zu erklären. Jedes Mal, wenn eine Anomalie gemeldet wird, schreiben Teilchenphysiker schnell Hunderte von Artikeln darüber, wie neue Teilchen die Beobachtung angeblich erklären. Dieses Verhalten ist so üblich, dass es sogar einen Namen dafür gibt: “Ambulance-chasing”, nach der anekdotischen Strategie von Anwälten, Krankenwagen zu verfolgen, in der Hoffnung, neue Mandanten zu finden.

Ambulance-chasing” ist eine gute Strategie, um die eigene Karriere in der Teilchenphysik voranzutreiben. Die meisten dieser Arbeiten bestehen die Peer Review und werden veröffentlicht, weil sie technisch nicht falsch sind. Und da die “Ambulance-Chaser” die Arbeiten der anderen zitieren, kann jeder von ihnen schnell Hunderte von Zitaten anhäufen. Aber für den wissenschaftlichen Fortschritt ist das eine schlechte Strategie. Nachdem die Anomalie verschwunden ist, werden diese Arbeiten irrelevant.

Dieses Verfahren, Teilchen zu erfinden und sie dann auszuschließen, wird schon so lange praktiziert, dass es Tausende von Professoren mit festen Stellen und Forschungsgruppen gibt, die davon leben. Es ist zu einer allgemein akzeptierten Praxis in der Physikgemeinschaft geworden. Niemand stellt auch nur in Frage, ob dies sinnvoll ist. Zumindest nicht in der Öffentlichkeit“…

Lesenswert ist auch der Spiegel-Artikel (das waren noch Zeiten, als der Spiegel nicht system- und mainstreamwissenschaft-konform war). Sperrt das Desy zu! aus dem Jahre 1999, indem Hans Graßmann die „methodische Leere“ des DESY beschreibt “…Glaubt den Desy-Managern nicht: Die öden Zahlenkolonnen, die das Desy produziert, das ist nicht die Physik…“

 

Euphemistische Botschaft der Deutschen Physikalischen Gesellschaft (DPG):

…„Die Deutsche Physikalische Gesellschaft soll ausschließlich und unmittelbar der reinen und angewandten Physik dienen. …“

»Wahre Botschaft« der Deutschen Physikalischen Gesellschaft (2000):

“Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte.”

Quelle: Eine an alle höheren Schulen ausgelieferte umfangreiche Denkschrift „PHYSIK – Themen, Bedeutung und Perspektiven physikalischer Forschung, ein Bericht an Gesellschaft, Politik und Industrie“ im Jahre 2000 enthielt diesen denkwürdigen Satz: „Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte. …“

Klaus Gebler verdeutlicht in seinem bemerkenswerten Buch: Als der Urknall Mode war - Erinnerungen an ein kurioses Weltmodell, u.a. wie sehr die “Moderne Physik” von der kirchlichen Sicht beeinflusst ist.

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ Klaus Gebler

…(m)ein Gedicht dazu: „Freie Parameter im Himmel, geheiligt werden unsere Namen. Unsere Theorie komme. Unser Dogma geschehe, wie im Himmel so auf Erden. Unser täglich Fördergeld gib uns heute. Und vergib uns unsere Schuld, wie auch wir vergeben unsern Kritikern. Und führe uns nicht in erkenntnistheoretische Versuchung, sondern erlöse uns von jeglicher Vernunft. Denn unser ist das Reich, die nächste Kraft und die irrationale Herrlichkeit in alle Ewigkeit.“

 

 

»Der Urknall ist nur Marketing«

Ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“ Robert Betts Laughlin  (1950 geboren, 1998 Nobelpreisträger für Physik)      

SPIEGEL: Wundert es Sie, dass sich die Öffentlichkeit vor allem für die Fragen interessiert, die Sie quasireligiös nennen?

LaughlinNein, gar nicht. Deshalb gehört das Marketing ja auch dazu, wenn man bezahlt werden will. Wir werden noch sehr viel hören von diesem Warum-ist-das-Universum-so-wie-es-ist-Zeug.           Interviewauszüge-Quelle SPIEGEL 30.12.2007

 

 

 

 

SM und "Ko(s)misches" der anderen Art

International steht SM nicht nur für das Standardmodell der (Elementar-)Teilchenphysik sondern auch für Sadomasochismus. Wie gezeigt wird, ist das physikalisch-mathematische SM, im Sinne der Realitäts-Behandlung, eine sehr spezielle Form von Sadomasochismus des Geistes.

 

Realobjekt-Forschung geht von reproduzierbaren, empirischen Befunden aus und bemüht sich dann um Systematisierung, Verallgemeinerung und ein „theoretisches Verständnis“.

Im heutigen standardmodell-orientierten Denken werden hingegen theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. 

 

Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll? Stellen wir uns vor, dass es sich nicht um eine überschaubare Korrektur handelt, sondern um einen gewaltigen »Umstoß« des Bestehenden, hin zu einem Denkmodell respektive Weltbild, welches das vermeintlich »Unumstößliche« nicht nur in Frage stellt sondern komplett ersetzt. „Schlimmer“ noch, dass es sich herausstellt, das mehr als 100 Jahre Theoretische Grundlagenforschung von völlig falschen Annahmen ausging und rückblickend, mit all den Erweiterungen und Nachkorrekturen, als - emotional betrachtet - peinlich und selbstbetrügerisch erscheint.

Wir können uns sicher sein, dass alles Mögliche von den Betroffenen in Bewegung gesetzt wird, um die Verbreitung dieses Alternativmodells zu verhindern.

Die Physiker und Mathematiker, die nicht selbst mit den Standardmodellen assoziiert sind, stehen »Alternativen Denkmodellen« meist auch reflexartig extrem kritisch gegenüber, sofern sie überhaupt über diese nachdenken, weil sie sich nicht vorstellen können, das ihre Kollegen-Experten falsch lagen. Sie denken, dass am Ende Alternativen sich nicht durchsetzten können, weil sie glauben, was die Standardmodellmacher seit Jahrzehnten propagieren: Wie ausgereift, aussagekräftig und alternativlos doch ihre Modelle sein. Mitunter schwingt auch die Angst mit, sich mit öffentlich wahrnehmbarer Kritik zu blamieren. Das hat damit zu tun, dass die angewandte Mathematik so komplex und schwierig ist, dass sie erst einmal mit dem Vorwurf konfrontiert werden, dass sie ja gar nicht verstehen, was sie da kritisieren. Was in den meisten Fällen aus rein mathematisch-formaler Sicht auch zutreffend ist.

Dass die Standardmodell-Entwickler und deren Profiteure jede halbwegs logische Alternativforschung schon im Ansatz beseitigen wollen, ist egoistisch menschlich nachvollziehbar. Jede formal-analytische Lösung, die realphysikalische Werte liefert, stellt eine existenzielle Bedrohung der Standardmodelle dar. Populärwissenschaftlich getragen wird das System von servilen Wissenschaftsmagazinen, deren indoktrinierten Lesern und unwissenden Epigonen, die jeden populären Theorie-Quatsch gemäß Theodor Fontanes Aphorismus: "Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn", beklatschen.

Es drängt sich hier der Verdacht auf, dass Menschen, deren Schaffensdrang nicht in geeigneter Weise befriedigt werden kann, weil real nichts Neues für sie zu finden ist, Trivialitäten dokumentieren und formalisieren, in neue Worte kleiden und Satzstrukturen verwenden, die ein Normalmensch nicht versteht und dessen Achtung der Autor quasi automatisch erhascht. Es macht im Ergebnis keinen Unterschied ob es in diesem System Wissenschaftler gibt, die "wirklich" voller Inbrunst an diese, an Naivität und Widersprüchen schwer zu überbietenden, "theoretischen Implikationen" glauben, oder ob es letztendlich banale wirtschaftliche Interessen gepaart mit akademischer Macht sind, die Wissenschaftler als elitäre Nutznießer ausnutzen, um baren Unsinn zelebrieren und verkünden zu können.

 

Wovon reden wir hier

Postulierte Standardmodell - Entitäten

zur Erinnerung

Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (Mathematik) gläubigen Menschen ins "Spiel".

 

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Einzig das »soziologisch erprobte Argument«, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese auf Grund immenser innerer Widersprüche bedeutungslos wären, wird „argumentativ“ zum finalen Schlag ins Felde geführt. 

Da diese Standardmodelle das wissenschaftlich und populärwissenschaftlich propagierte Non plus ultra der Theoretischen Denkmodell-Physik sind, brauchen wir uns nicht zu wundern, dass wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant, dekadent, sinnfrei und folgenlos widersprüchlich die »Protagonisten des Standards« in ihren Arbeiten mit Apologeten, Fans, Kritikern und sich selbst umgehen, haben sie eindrucksvoll mit folgender »Erkenntnis-Pathologie« bewiesen: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus" der masselose Neutrinos fordert.  2015 gab es einen Nobelpreis für den (angeblichen) Nachweis von Neutrino-Oszillationen, die Neutrinomassen benötigen.

 

 

          

"Etwas genauer" zum Irrationalen ergebnislosen Standard

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

 

zur Erinnerung

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung respektive der ursprüngliche Formalismus verletzt, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu (postulierten) Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. 

 

Erwiesene Nichtexistenz

Bei genauer Sicht gibt es das SM gar nicht. Es ist bereits in sich fragmentiert und diesbezüglich unvereinbar.

Hintergrund

Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik (QED) offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie, die weder in der QED noch allgemein formuliert im SM existiert, skizziert werden.

In der Elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der Elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht.

Das Photon soll sich in der Elektroschwachen Theorie wie in der QED verhalten. Diese Annahme/Forderung ist (phänomenologisch) haltlos, da das »Photon der QED« nicht dem Mischzustand der elektroschwachen Theorie entspricht.

Auch ohne mathematische Konkretisierung lässt sich der Widerspruch qualitativ verstehen. Es wird im Rahmen der QED ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Theorie-Ergebnis eine unendlich große Ladung besitzt. QED-Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche, beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, das Ergebnis war bekannt.

Bedeutet: Statt unverstandene, phänomenologiebefreite Größen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, Realphysik befreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche VoraussagenVE liefert, bleibt (erkenntnistheoretisch) »Nichts«.

 

VE Die „gemessene“ Stärke der Vakuumenergie(dichte) stellt wortwörtlich eines der größten Probleme der modernen System-Physik dar, da die experimentell gefundenen und die theoretisch vorhergesagten Werte extrem voneinander abweichen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 (!!!) niedriger als in den theoretischen Berechnungen des Standardmodells.

 

 

Warum nehmen Menschen generell solch' widersprüchlichen Schwachsinn hin?

Heutiges hysterisches, getriggertes Denken, Wünschen und Handeln der Massen ist nicht neu: Der Psychologe Solomon Asch (1907 - 1996) bemerkte aufgrund seiner Versuche, „Für die meisten Menschen hat die Anpassung an das, was andere sagen und tun – egal wie objektiv falsch oder absurd es ist –Vorrang vor der Anpassung an die Realität und der Entdeckung der Wahrheit.“

Wesenszüge der Masse nach Gustave Le Bon (1841 - 1931):

Eine Masse ist grundsätzlich impulsiv, beweglich, irritierbar, suggestibel, leichtgläubig, besessen von schlichten Ideen, intolerant und diktatorisch. Der Geist der Massen ist konservativ („Konservativismus der Masse“). Leichtgläubig gegenüber alten, skeptisch gegenüber neuen Ideen und Idealen. Es existiert eine spezifische »Religiosität der Massen«, die die Religiosität einzelner Individuen außerhalb der Masse bei weitem übertrifft. Das Individuum kann in der Masse in moralische Höhen aufsteigen oder in Tiefen hinabsinken (meist Letzteres). Es existiert eine allen Massenbestandteilen eigene „Massenseele“. Die Masse denkt nicht logisch, sondern in Bildern, die häufig durch einfache Sprachsymbolik hervorgerufen werden. Die Masse ist nur wenig kreativ und vermindert intelligent. Sie denkt einseitig grob und undifferenziert. Die Masse ist leicht erregbar, leichtgläubig und sprunghaft. Ihre Emotionalität ist schlicht.

Das hier bewusst inszenierte, extrem unwissenschaftliche und übergeordnet a-soziale Verhalten der Standardmodell-Protagonisten und "im Anschluss" der »servilen Verkünder populärwissenschaftlicher Publikationen«, des im Aussage-Ergebnis interdisziplinär leicht verstehbaren »Standardmodell-Widerspruch-Nonsens«, erinnert stark an die Bestandsaufnahme von Klaus Gebler:

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ Quelle: Als der Urknall Mode war  -  Erinnerungen an ein kurioses Weltmodell  -  Klaus Gebler 2005  ISBN 3-8334-3983-1

 

Alles SUPER oder was?

Für heutige Theoretiker ist die »Welt der Mathematik« identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik (SM) verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.

Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Diese stark theoriebeladene Suche lässt sich auf Grund der vielen freien Parameter (25 im SM und derzeit 6 in der theoretisch einfachsten Version des kosmologischen Standardmodells), nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Dass SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und im Vergleich zu anderen Wissenschaftsdisziplinen "unerreicht" auf die Spitze getrieben. 

Die daraus resultierenden Verselbständigungen der mathematischen Abstraktionen führen nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.

 

Kommen wir diesbezüglich zu der Forderung der »SMer«, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht" (es darf gelacht werden).

»SMer« sind sich siegessicher, dass das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert, sofern wir das - aus vielerlei Gründen absurde und argumentativ widerlegte - Postulat der (realphysikalisch möglichen) Messung von Gravitationswellen hier erst einmal nicht berücksichtigen und nur Standardmodell-Physik begutachten wollen.

Naja, ich "sage" es mal so, stell' Dir vor es geht.

Ich möchte das an dieser Stelle nur thematisch "anreißen", da es gemäß inhaltlichen Umfangs, konkreter Ausführungen etc. weit weg vom Primären über Denkmodellaspekte führt. Eine sehr ausführliche Betrachtung mit einer unerwarteten phänomenologisch begründeten, formalanalytischen - ohne Übertreibung - sensationellen Alternative und im Ergebnis erstaunlichen Werteberechnungen findet sich in den Ausführungen zu den magnetischen Momenten, siehe Die etwas andere Expedition

 

 

Vieles und Nichts

Wie generiert man Aufmerksamkeit für vollkommen Unerwartetes? Sachlich existiert ein Informations-Dilemma. Einerseits macht es Sinn, formal-analytisch exakt, kurz und knapp die signifikanten Vorteile eines alternativen Denkmodells erst einmal - sozusagen aphoristisch - vorzustellen. Das geht jedoch zu Lasten des Verständnisses auf der Leserseite und läßt den Autor fragwürdig erscheinen, da für eine stringente, konsistente, formal sachgerechte Denkmodell-Vorstellung jeder Entwicklungsschritt, bis hin zum Formalismus, lückenlos aufgezeigt werden sollte. So oder so ist es für viele Interessierte eher schwierig, hinderlich bis abschreckend, wenn man mit etwas Neuem konfrontiert wird, aber die Hintergründe, Herleitungen etc. noch nicht kennt respektive (noch) nicht versteht. Andererseits sind zu lange Ausführungen, "bis man zum Punkt kommt", in denen es, im Sinne eines konsistent begründeten Paradigmenwechsels, richtig interessant wird, auch problematisch. Leser vermuten dann meist das, aus den (Zeitgeist-)(Mainstream-)Medien "gut" bekannte, "Um den heißen Brei reden", um am Ende festzustellen zu müssen, dass es eigentlich doch nichts relevantes Neues gibt.

Hand aufs Herz, insgesamt kann sich eh kaum jemand vorstellen, dass es nachhaltige, komplett andersartige Beschreibungsmöglichkeiten im Rahmen von Theoretischen Modellen geben kann, die, gemäß des Prinzips der Parsimonie, den etablierten Denkmodellen deutlich überlegen sind. Insbesondere kann sich niemand, allen voran Theoretische Physiker, vorstellen, dass ein alternatives Denkmodell konsistent und skalenübergreifend zur (langersehnten) Vereinheitlichung führt und alle diesbezüglich relevanten Meßwerte in Form von mathematisch einfachen, formal-analytischen Gleichungen voraussagt. Sowas "hört sich" respektive liest sich wie ein Fantasie-Märchen. »Denkmodell-Neues«, insbesondere mit solchen unvorstellbaren Ankündigungen, wird in der Regel ungelesen ignoriert.

Des Weiteren, Skepsis ist eigentlich eine gute "Sache". Aber, Skepsis wird dann zum Problem, wenn die Aufnahmefähigkeit des Betrachters dadurch signifikant gestört wird. Jemand der sich einem Denkmodell inhaltlich nähert und (wiederholt) die Frage stellt, ob das Denkmodell seinen eigenen bisherigen Vorstellungen entspricht oder anfängt selbst (ergänzend) zu spekulieren, bevor das Denkmodell hinreichend verstanden wurde, ist kaum in der Lage sich den neuen Gedanken mit der nötigen Aufmerksamkeit zu nähern. Die eigentlichen Probleme des Verstehens kommen dann, selbst bei einem leicht verständlichen Denkmodell mit wenig Mathematik, von der Egozentrik des Betrachters. Fatal wird es, wenn Betrachter Aussagen und Postulate bestehender Modelle als Grundlage der Bewertung des neuen Denkmodells "annehmen" respektive fordern.

 

Wenn Geprüfte gleichzeitig Prüfer sind...

Diejenigen, die am besten und schnellsten, im Hinblick auf Konsistenz und Aussagefähigkeit, untersuchen könn(t)en, ob ein »Alternativmodell« im Sinne des »Prinzips der Parsimonie« eine Existenzberechtigung hat, sind im 21. Jahrhundert fast ausnahmslos Theoretische Physiker und in diesem Bereich angesiedelte Mathematiker. Diese sind allesamt, sofern sie sich mit den Standardmodellen der Teilchenphysik und Kosmologie beschäftigen, Protagonisten, Apologeten oder Epigonen dieser.

 

Da Mathematik nicht zwischen Staub und Staubsauger unterscheiden kann, ist in einem allgemein verständlichen Denkmodell Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

Des Weiteren: Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend phänomenologischer Betrachtungen und Erklärungen.

Das Parsimonieprinzip

[Ockhams Rasiermesser     lex parsimoniae    Sparsamkeitsprinzip]

Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden.

Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft.

 

Der Neid der Besitzlosen

Des Weiteren gibt es Standardmodell-Kritiker, die neben ihrer Kritik auch gerne kreativ werden würden. Mit oder ohne sachrelevante Vorkenntnisse, fehlt es jedoch nahezu allen, bis auf die »one in a million« - Ausnahme, an »schöpferischem Geist« ein brauchbares physikalisches Denkmodell zu entwickeln. Die Fokussierung auf das ich, macht sie in dem Fall, das einer aus ihren Kritiker-Reihen, das schafft(e), was ihnen nicht gelang respektive gelingt und wohl auch perspektivisch nicht gelingen mag, zu Verdrängern und Ignoranten.

Ihre Strategie: Sie vermeiden es, sich mit dem neuen alternativen Denkmodell auseinanderzusetzen. Sie haben Angst sich den Ausführungen im Detail zu nähern, da eine Kaskade von Gefahren besteht. Erst einmal, dass sie für sich erkennen müss(t)en, dass das Modell tauglich ist. Das bereitet vielen einen starken Egoschmerz. Als nächstes wären sie - früher oder später - in der Pflicht auch darüber im Rahmen ihrer Möglichkeiten zu berichten. Insbesondere öffentlich bekannte Kritiker wären dann verpflichtet, auf Grund ihrer medialen Reichweite für eine entsprechende Verbreitung zu sorgen oder müssten sich irgendwann erklären, warum sie das nicht taten. Die Geschichte zeigt zwar, dass diese Vermeidungs-Strategie selten erfolgreich ist, doch, wie man so "schön" sagt: Die Hoffnung stirbt zuletzt. Tatsache ist: Es mag lange dauern, doch eines Tages kommt das »Neue« ans Tageslicht. Trotz dieser Erkenntnis sind die Egozentriker in den Reihen der Denkmodellphysiker diesbezüglich beobachtungs- und lernunfähig.

 

Neues ist unerwünscht

Dann gibt es noch die Kritiker, die ihre Kritik professionalisiert haben und Geld mit Büchern, Vorträgern etc. verdienen, ihnen geht es offensichtlich nicht nur um mögliche Egoproblematiken sondern um Materielles. Spätestens an dem Tag, wo jedem klar ist, dass die alten Theorie-Konzepte nicht mehr relevant sind und das nicht nur in Fachkreisen sondern auch populärwissenschaftlich kommuniziert wird, ist auch die diesbezügliche Kritik obsolet. Das bedeutet - leicht verständlich - sie verdienen nichts mehr mit ihrer Kritik an den überholten Denkmodellen. Ein weiterer Grund die "Füsse still zu halten".

 

Jäger und Sammler AlexDirk     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

Halten wir fest...

Es ist, sowohl für einen "unbetreuten" Quantenfeldtheoretiker als auch für einen "unbetreuten" »ART- affinen Differentialgeometriker«,  schlicht unmöglich, sich vorstellen zu können, dass es brauchbare Denkmodellalternativen ohne Quantenfelder und Differentialgeometrie geben kann. Das ist keine Übertreibung. Es ist für diese »Standardmodell-Denker« komplett unmöglich einfach zu denken. Das bedeutet, diese haben keinen eigenen Primärimpuls etwas derartig »Anderes« auch nur im Geringsten zu betrachten.

Aphoristisch lautet ihr Ausschließungs-Motto kategorisch seit eh und je...

Wir lesen nichtwir schreiben selber!   

Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, dass nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren müsste. Aber: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen...

Volumen aus dem Nichts

Das Banach-Tarski-Paradoxon beschreibt einen nicht widerlegbaren mathematischen  "Beweis", der, axiomatisch begründet, aus einer Kugel zwei Kugeln macht und weitergedacht durch wiederholte Anwendung unendlich viele Kugeln. Jeder kann, auch ohne jegliches mathematisches Verständnis begreifen, das das irreal ist, außer aus mathematischer Sicht.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838 - 1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

"Der größte Fehler, den wir meiner Meinung nach immer wieder begehen, besteht darin, sich von der Theorie zum Modell leiten zu lassen. Nach einer lächerlich langen Zeit ist mir endlich klar geworden, dass etablierte Wissenschaftler tatsächlich davon ausgehen, dass Theorien einem sagen, was wahr ist und was nicht!Halton Arp (1927 - 2013), Astronom

 

Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten physikalischen Denkmodell Zeit und Beachtung zu schenken?

Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen.

Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für meßbare physikalische Größen.

a) Existieren keine Modell basierenden formalisierten Berechnungen die mit meßbaren Werten korrespondieren, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell.

b) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch konsistente, nachvollziehbare Erklärungen innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden (weitere) freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten, bekannten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine (weiteren) freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.

 

Was macht einen Paradigmenwechsel so schwierig?

Sofern die phänomenologisch-formalen Aspekte im Hinblick auf überprüfbare  Voraussagefähigkeiten gemäß dem »Prinzip der Parsimonie« deutlich für einen Denkmodellwechsel sprechen, sind es, realistisch betrachtet, ausschließlich "banale" wirtschafts-existentielle sowie psychologische Gründe, die einen Paradigmenwechsel verhindern.

i) Alle, die bisher als Protagonisten (Wissenschaftler, Dozenten, Techniker,..., Wissenschaftsberichter,...) auf Grundlage des bestehenden Denkens (herrschende »Denkdogmen«) ihr materielles Leben bestritten haben, verlieren ihre Arbeitsgrundlage sprich ihre wirtschaftliche Existenz. Des Weiteren ist deren Reputations- respektive Ego-Schaden immens.

ii) Der »Prinzip der Parsimonie-Gewinner« schlägt (auch) alle kreativen Kritiker, deren Denkmodelle nun nicht mehr in Betracht kommen (können), aus dem Feld. Sie verlieren ihre Daseinsberechtigung. Das bedeutet das finale Aus für deren geistige Arbeit. Das führt u.a. zu erheblichen Ego-Kränkungen.

Trotz gegensätzlicher Anfangs-Positionierung wollen im Ergebnis weder die jetzigen »Denk-Dogmatiker« noch die Dogma kritischen »Alternativ-Denkmodell-Kreativen« einen Paradigmenwechsel.

Wer kann, will und/oder sollte sich also einen erfolgreichen, nachhaltigen Paradigmenwechsel, außer dem »Prinzip der Parsimonie-Gewinner«, wünschen?

iii) Auf den ersten Blick könnte man annehmen, das "so etwas" wie freudige, dankbare (insbesondere Fach-)Wissende existieren, die, gemäß ihrer eigenen Betrachtungen, ("schon lange") realisierten, welche immensen Widersprüche und brachiale Willkür den herrschenden Denkmodellen innewohnt. Diese sind jedoch höchstwahrscheinlich, bis auf sehr wenige Ausnahmen, von einer weit verbreiteten, antrainierten, etablierten "Menschlichkeit beseelt", die im Bereich der Theoretischen Denkmodellphysik konkret besagt, dass man sich - nach mehr als 100 Jahren »Moderner Theoretischer Physik« - schlicht nicht vorstellen kann, das diese im Kern fundamental - plakativ formuliert - denkmodell-falsch ist.

Warum falsch? Kann ein Denkmodell überhaupt falsch sein?

Die richtige Antwort befindet sich ausschließlich im Denkmodell. Ein Denkmodell ist dann falsch, wenn es im Rahmen der Denkmodellpostulate verwendeten Axiome nachweislich widersprüchlich ist.

Im analytischen Ergebnis sind, wie in Folgeartikeln argumentativ aufgezeigt wird, das Standardmodell der Elementar-Teilchenphysik (SM) und das Standardmodell der Kosmologie ColdDarkMatter Modell falsch.

Bevor hier unnötig Mißverstände entstehen, ein Paradigmenwechsel, gemäß dem »Prinzip der Parsimonie«, ist losgelöst davon, ob Denkmodelle in sich widersprüchlich sind oder nicht, begründet. Vorliegend sind jedoch SM und ΛCDM-Modell auch falsch.

Wie kann, trotz der benannten schwierigen Randbedingungen, ein argumentativ begründeter Paradigmenwechsel, von "außen" unterstützt werden?

Hier kommen »interdisziplinär Informierte« ins Spiel. Aus diesem »Pool«, vom Paradigmenwechsel nicht nachteilig betroffenen »interdisziplinär Informierten«, kann, insbesondere wenn es sich um Wissenschaftler handelt, mittels Fachveröffentlichungen und allgemeiner, im Rahmen medial inszenierter Aufmerksamkeit, in populärwissenschaftlichen Magazinen, eine weitreichende Aufklärung erfolgen.

 

Warum glauben so viele Menschen, dass die bestehenden theoretischen Modelle sehr gut sind?

Warum denken so viele Wissenschaftler, dass es keine besseren Alternativen gibt?

 

Psychologie der Masse(n)

Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Ein weiterer wichtiger Grund ist inhaltlich die Tatsache, dass kaum jemand weiß, worum es in den Standardmodellen geht.

Beispielsweise populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) und in einem größeren Rahmen des Standardmodells der Kosmologie (Λ-CDM-Modell) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben.

 

Mythos  »Theorieschaft« [Theorie schafft]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Physik und Philosophie - Thesen und Realität

Die Physik beantwortet Wie-Fragendie Philosophie beantwortet Warum-Fragen.“
Naja, Philosophen äußern Meinungen, selten bis nie handelt es sich um Antworten, die inhaltlich über willkürliche, subjektive Bewertungen hinausgehen. Im Rahmen der Angewandten Physik gibt es praktische Antworten, die im Ergebnis beispielsweise Speichermedien, Kommunikation und realen Transport möglich machen. In der Modernen Theoretischen Physik gibt es seit mehr als 100 Jahren keine Antworten, die phänomenologisch basierend begründet sind, sofern man anschauliche Realphysik fordert.

Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell)ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen.

Tatsache ist : Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neue Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«SC

☼ [SC] Siehe exemplarisch: Calculating the five-loop QED contribution to the electron anomalous magnetic moment: Graphs without lepton loops   veröffentlicht im November 2019

Autor: Dr. Sergey Volkov [Fachgebiete u.a. Kern- und Elementarteilchen-Physik, Relativitätstheorie]

Screenshot aus dem benannten "scientific paper"

Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor - stellvertretend für alle Autoren dieser Art von "Berechnungen" - nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbilden.

 

 

Erst einmal zur Mathematik allgemein

 

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Ein Paradigmenwechsel der anderen Art