Wissen ist ein Privileg. Die Weitergabe eine Pflicht. Dirk Freyling unabhängiger Forscher & Künstler
|
Was ist und was darf sein? Es geht u.a. um die zentrale Frage, inwieweit konservative Denkstrukturen einem effizienten Erkenntniszuwachs im Bereich der Grundlagenforschung im Wege stehen. Welche realistischen Chancen haben (junge) Physiker, die nicht die gängigen Theorien vertreten? Vorausgesetzt, sie könnten sich von den theoretischen Dogmen selbstmotiviert lösen und ein eigenes Theoriegebäude entwickeln. Die traurige Antwort ist, in der etablierten Physik ist schon lange kein Platz mehr für standardmodellferne Gedanken und deren Protagonisten. Zur Form des Vortrages: Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Ratlosigkeit und Phänomenologieferne werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender Komplexität vieler freier Parameter, variabler Kopplungskonstanten, „wilder Substrukturierung“ und beliebig deutbarer, nicht nachweisbarer Theorieobjekte, wie der »Dunklen Materie« und der »Dunklen Energie«. Aus einem postulierten Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen. Das das Taktieren mit mehr als 20 freien Parametern "Alles" möglich macht, dürfte selbst für "Normalbegabte" verständlich sein. Streng genommen ist exemplarisch das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... ein philosophisches und kein physikalisches Denkmodell.
Persönliche
Motivation und Hintergründe zur
Elementarkörpertheorie
von Dirk Freyling » Distanz schafft Nähe « Dirk Freyling 48ndf Korrespondenz und Basisnähe entfalten sich erst mit der nötigen Distanz zur Norm.
Seit Einführung der Quantenmechanik sind Philosophen im Bereich der Theoretischen Grundlagenphysik so gut wie abgemeldet. Das hat offensichtlich stark mit der rein mathematischen Struktur der Beschreibungen zu tun. Gleiches gilt für die „Theoretische Kosmologie“ mittels "äußerst schwieriger" differentialgeometrischer Betrachtungen, "wo" eben auch „Schreibfehler“ neue Lösungen generieren können. Es fehlt den meisten Philosophen schlicht an formalen Kenntnissen um überhaupt Kritik ernsthaft üben zu können. Aber auch wenn Philosophen die angewandte „Mathematik“ verstehen würden, was sollten sie kritisieren? Phänomenologiebefreite Rechenvorschriften bieten keine "naturphilosophisch erreichbare" Angriffsfläche, man kann diese als Denkmodell-Grundlage nur kategorisch ablehnen. Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See. „Der Urknall ist nur Marketing“ (Robert Betts Laughin) Spiegel-Interview mit Physik-Nobelpreisträger Robert Betts Laughlin …“ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“… Zur
Beliebigkeits-Problematik der freien Parameter gesellt sich noch
die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips.
Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie
wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze
beliebige Koordinatensysteme verwenden zu können. Entsprechend dem
Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von
der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung
ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen
Koordinatensystemen [Metriken]. Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Erst
Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen.
Die unvermeidbaren ("kovarianten") Widersprüche kommen mit
den offensichtlich unzulässigen Idealisierungen und Näherungen des
Systems von nichtlinearen, verketteten Differentialgleichungen.
Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da
es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung
„entschwindet mit der Verstümmelung“ (Idealisierung und Näherung)
der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch
korrekten Gleichungen besitzen keine analytischen Lösungen. Die
reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen,
diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine
realphysikalisch begründete Bedeutung. Diese Art des
Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der
(selbst)gewählten Metrik andere Ergebnisse erhalten werden. (Gegen-)Beispiele: Ein zum Standardmodell der Kosmologie "alternatives" Denkmodell, wie »MOND« (Modified Newtonian Dynamics), siehe exemplarisch die „Streitschrift“ von Pavel Kroupa „The failures of the standard model of cosmology require a new paradigm” http://arxiv.org/pdf/1301.3907v1.pdf, arbeitet letztendlich (leider) auch mit variablen Kopplungen. Stringtheorien potenzieren aus erkenntnistheoretischer Sicht nochmals das „Phänomen der Unanschaulichkeit“. Stringtheorien sind u.a. ein „Sonderfall“ variabler Kopplungskonstanten. Jedoch sind diese Kopplungskonstanten keine vorbestimmten, anzupassenden oder universellen Parameter. String-Kopplungskonstanten sind Skalarfelder, die von der Position in Raum und der Zeit abhängen können, deren Werte so dynamisch festgelegt werden. Die eindimensionalen Strings sind zwar offensichtlich anders als die nulldimensionalen Punkte des SM, aber Stringtheorien sind ergebnisorientiert, trotz der "Mehrdimensionen" in denen sich die Strings „breit machen“, keineswegs grundsätzlich verschiedene Konzepte im Vergleich zu den herrschenden Quantenfeldtheorien, wie häufig gedacht und behauptet wird. Auch Stringtheoretiker sind bemüht Quarks & Co theoretisch zu konstruieren. Das gesamte Arsenal an Beliebigkeit in Form nicht direkt messbarer instabiler „Teilchen“, die im Beschleuniger (theorie-)induziert werden, will die Stringtheorie „ungeprüft“ abbilden (formal nachbauen). Das Dogma der SM-Theorieobjekte bleibt also erhalten. Derzeitige Stringtheorie-Modelle sind so aussage- und gegenstandslos, daß selbst die Protagonisten des realobjektbefreiten Standardmodells keine („wirkliche“) Angst vor diesen haben. Logisches Fazit: Der Wechsel von einem mathematischen Fokus auf einen anderen mathematischen Fokus stellt keinen Paradigmenwechsel dar. Denkmodelle müssen
absolut begriffstransformierbar sein, um eine epistemologische
Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb
der Mathematik vermitteln lässt, ohne daß sie ihren exakten
Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen
Denkmodells stets eine erkenntnistheoretische Nullnummer. Was wäre ein Paradigmenwechsel? U.a.
bedingt durch die These der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit)
ist der Raum, die Raumzeit von der Materie in den Standardmodellen entkoppelt
worden. Grundlage eines Paradigmenwechsels, in Form eines konsistenten Denkmodells, das als solches erkenntnistheoretisch grundlegend verschieden von herrschenden Modellen ist, ist ein masse-gekoppelter Raum, statt eines derzeit propagiert masse-entkoppelten Raumes.
"out of the box" Was mich seit Wiedereintritt in das Erkenntnis-Gebäude der Theoretischen Grundlagenphysik, beginnend Februar 2012, wirklich aufgehalten hat und nach wie vor sehr zeitraubend ist, war herauszufinden bzw. ist herauszufinden, wieso die Verkünder der Standardmodellphysik all diesen offensichtlich widersprüchlichen Konzepten folgten und folgen, die Beliebigkeit und Nichtnachweis zur "Norm" erklären. Es drängt sich der Verdacht auf, daß insbesondere die Protagonisten der jüngsten Generation von Theoretischen Standardmodellphysikern ausschließlich im praktizierten Formalismus verankert sind. Um jedoch die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um (vermeintlich) wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Das gilt nicht nur für organisierte Weltreligionen oder politische Systeme. Pluralismus, Selbstkritik und Erkenntniswunsch sind keine Charakteristika erfolgreicher Standardmodelle. Es macht im Ergebnis keinen Unterschied ob es in diesen Systemen Wissenschaftler gibt, die wirklich voller Inbrunst an diese, an Beliebigkeiten und Widersprüchen schwer zu überbietende, "Theorien" glauben oder ob es letztendlich banale wirtschaftliche Interessen der Protagonisten gepaart mit akademischer Macht sind... Besonders eklatant ist der Umstand, daß im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet. Der wissenschaftliche "Denkmodell-Monotheismus" wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, im Rahmen eines Physikstudiums das quarksbasierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Es gibt doch keine Physik-Nobelpreise für Falschaussagen, oder*. Diese "psychologischen Komponenten" wiegen schwer.
Eine Anregung: Die Suggestion einer realmessbaren Situation für Theorieobjekte der Standardmodelle scheint mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige Analyse vornehmen zu können, sollten Aussagen selbständig überprüft werden: Ob Neutrino, Higgs-Boson oder man denke sich ein beliebiges Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde je direkt gemessen. Umso tiefer man in die konkrete Konzeption und die technische Realisation des Messvorganges „eindringt“, umso deutlicher wird verständlich, wie theoriebeladen, beliebig und aussagelos die Experimente sind. Man sollte nicht einfach an eine korrekte Meß-Existenz glauben, sondern selbst die messtechnischen Randbedingungen sowie theoretischen „Implikationen“ die die angeblichen Existenzbeweise liefern überprüfen. Die eigene Modellforschung ist somit zwangsweise mit den Postulaten, Thesen und stark theoriebeladenen Experimenten der bestehenden Modelle konfrontiert. Sofern etwas Geduld und Neugierde vorhanden sind, lassen sich dem thematisch Interessierten die wesentlichen Unstimmigkeiten und schwerwiegenden logischen Denkfehler der Standardmodelle plausibel machen. Logisch erfassbare Randbedingungen Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus der auf abstrakte Symmetriebeziehungen baut, so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess ohne realphysikalisch basierenden Hintergrund. Eigene Geschichte „Schuld ist“ Nobelpreisträger für Physik (des Jahres 1985) Klaus von Klitzing. Er hielt im Rahmen einer Jubiläumsfeier an der Universität Duisburg einen Gast-Vortrag und referierte u.a. über das Thema Naturkonstanten und in dem Zusammenhang bekräftigte er die Idee des Zufalls in der Natur. Das widersprach und widerspricht meinem Denken über Natur. Da ich mich fragte ( heute ist diese Frage "politisch inkorrekt" ), warum jemand überhaupt einen Nobelpreis für Experimente zur Quantelung des Magnetfeldes bekam, da ich das «quantisierte Magnetfeld», im Rahmen quantenfeldtheorie-basierender Formalismen als stringent weiter gedacht, voraussetzte, entstand eine gewisse sportliche, nonkonforme Motivation, mich intensiv mit dem Sein der Materie zu beschäftigen. So entstanden im Jahre 1986 die ersten Ausführungen zur Elementarkörpertheorie.
Anders als erwartet... Da ich als „Arbeiterkind“ über den zweiten Bildungsweg - sprich „mittlere Reife“, Ausbildung zum Chemielaboranten, kurzzeitig Schichtlaborant, parallel zur Ausbildung und zur Schichtarbeit Fachabitur in Abendform und Brückenkurse - meinen Weg zum Studienplatz selbstmotiviert, nicht selten autodidaktisch und „hart“ erarbeiteten musste, war die freiwillige Aufgabe des Physik-Studiums alles andere als absehbar und für die meisten Beobachter nicht nachvollziehbar. Insbesondere, wenn man berücksichtigt, daß ich nach meinem Vordiplom, u.a. mit sehr guter Leistung in der Theoretischen Physik, auch meine Diplom-Abschlussprüfung im gewählten Nebenfach der Metallorganischen Chemie schon erfolgreich „hinter“ mich gebracht hatte. Mein selbstmotivierter Abbruch während der Diplomarbeit im Bereich Festkörperphysik/Konversions-Elektronen-Mößbauerspektroskopie war u.a. die Folge meiner damaligen Lebensumstände und der Erkenntnis zuzuschreiben, daß der Wissenschaftsbetrieb unter dem Dogma der Quantenfeldtheorie basierenden Wahrscheinlichkeitsbetrachtungen sozusagen als "Standard des Verstehens" erkenntnistheoretisch nichts wesentlich Neues generiert. Festkörperphysik als solche interessierte mich nur am Rande. [...Es gibt nach wie vor keine befriedigende Theorie für die Häufigkeit und den Prozess der Konversionselektronen(-Entstehung).]
Es folgten mehr als zwei Jahrzehnte grundlagenphysikferner intensiver Beschäftigung mit Erotik, Kunst und assoziierter Gesellschaft. U.a. mit dem Versuchsergebnis: Nahezu alle Probanden der so genannten freien Gesellschaft sind bei genauer Betrachtung Hilfserotiker. Tagelöhner der Lust ohne erotische Kultur und ohne Aussicht auf Entwicklung. Mit der erschwerenden Randbedingung, daß sie sich dessen so gut wie gar nicht bewusst sind.
Diese Ergebnisse haben vielerlei Gründe. An anderer Stelle findet man im „Netz“ Fragmente zu diesem tragischen Körperverlust des Neuzeitmenschen.
"Wiedereintritt" Anfang 2012 stieß ich durch Zufall auf das Ergebnis der Protonenradiusmessung am myonischen Wasserstoff aus Juli 2010 am Schweizer Paul Scherrer Institut. Mit dem Ergebnis: Jetzt will ich es wissen. Die Abweichung von ~ 4,4% zum CODATA-Wert ist bis heute der "etablierten Physik" ein Rätsel. Die sensationelle, formal einfache Voraussage des Protonenradius im Bild der Elementarkörpertheorie erzeugt(e) Freude und war der Auftakt zu intensiver Elementarkörper-Denkmodell basierender Forschung. Mein Kontaktversuch mit Dr.Randolf Pohl vom Max-Planck-Institut für Quantenoptik, einem der benannten Physiker der Protonenradiusmessung, war ergebnislos. Das Telefonat ergab, daß sich Herr Pohl kategorisch nur für die in einschlägigen Magazinen „ordentlich“ veröffentlichten „scientific papers“ interessiert. [ http://www.psi.ch/media/proton-size-puzzle-reinforced ] [ http://www.psi.ch/media/weiter-raetsel-um-das-proton ]
Denkmodell-Geschichte Ursprünglich stellte ich mir schon 1986 die Frage, welche mathematische (Ur-)Gleichung den relativistischen Faktor der Lorentztransformation abbildet. Darüber hinaus: Da die SRT „inertialsystembelastet“ ist, musste zwingend für einen dynamischen Entwicklungsprozess v = const. durch v = dr/dt ersetzt werden. Im Umkehr-Ergebnis folgt Elementarkörpertheorie basierend der dynamisierte „relativistische“ Faktor aus der Entstehungsgleichung r(t).
Rein „mathematisch“ betrachtet handelt es sich um eine Schwingung. Der fundamentale Unterschied ist, daß es hier zu einer Zustandsänderung kommt. Reine Bewegungsenergie wandelt sich zeitabhängig in einen masse-radius-gekoppelten "Raum". Diese Zustandsänderung ist abgeschlossen, wenn r(t) = r0 und m(t) = m0 ist. Wobei der Raumbegriff sich hier auf die Überlagerung zweidimensionaler Kugeloberflächen bezieht. Die bis zu einem Maximum expandierende Kugeloberfläche, die im Grenzfall eine infinitesimale Oberflächendicke besitzt, dürfte (fast) jedem anschaulich erscheinen.. Das eingeschlossene Raumvolumen als solches ist leer. Die Physik spielt sich auf der zeit-, respektive wechselwirkungsabhängigen Oberfläche ab. Anfang 2012 "klebten" die Berechnungen noch am Protonenradius. Mit Entwicklungspausen entfaltete sich in den Folgejahren ein konsistentes Denkmodell welches, phänomenologisch begründet, korrespondierend Photon und radius-masse-gekoppelte Materie, sowie Mikro- und Makro-Kosmos vereint. Modern ausgedrückt: Die grundsätzliche Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung - steht nicht im Widerspruch mit der Materie-Energie-Verkörperung. Für t = 0 handelt es sich um reine Bewegungsenergie (Photon). Für t = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π ·r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Der relativistische Faktor der Lorentztransformation war für mich so etwas wie ein von aussen bestehender (mathematisch formulierter) „Reflexionskeim“, der mich dann, losgelöst von der SRT, zur Dynamik der Materiebildung „führte“. Der Formalismus der SRT bildet nach einem subjektiven Denkmuster die physikalische Realität der Invarianz der (Vakuum-)Lichtgeschwindigkeit ab, macht aber keine Aussage zur bekannten Materiebildung. Auch die ART erbringt keine Aussagen zur Materie. Hier kam/kommt die (fast) verlorene Denk-Neutralität ins Spiel, wenn man so will, ein ergebnisorientierter Denkmodellpluralismus. Entkoppeln wir die bestehende, assoziierte Theorie vom Experiment, so bleibt nur die Invarianz der (Vakuum-)Lichtgeschwindigkeit. An dieser Stelle ist es eher hinderlich (im Hinterkopf) Begrifflichkeiten der RT wie Zeitdilatation oder Raum-Zeit-Kontinuum stets „vor Augen“ zu haben. Denn es zeigt sich, dass die „verkörperten“ Sinusfunktionen (r(t) und m(t)) viel „mächtigere Reflexionskeime“ sind, als der daraus abgeleitete relativistische Faktor der Lorentztransformation, der nur eingeschränkt für v = const. („inertialsystembelastet“) gilt. Plakativ formuliert hat das wesentliche Element der Lorentztransformation (relativistischer Faktor) einst seinen „denkauslösenden“ Zweck erfüllt. Von der Relativitätstheorie als solche, fließen keine weiteren „Theoriefragmente“ in die Elementarkörpertheorie ein.
Um die Elemente der Sinusfunktion in Ankopplung an „unsere Welt“ realphysikalisch zu bestimmen, werden Alleinstellungsmerkmale der beobachteten Natur benötigt. Man braucht zur „Verkörperung“ der Sinusfunktion sozusagen „globale“ physikalische Auffälligkeiten. „Eine“ ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit, die andere ist die „Gravitationskonstante“, die in der Verkörperung implizit (auch) das Plancksche Wirkungsquantum enthält. Es lässt sich zeigen, daß die Funktion r(t) = r0 sin(ct/r0) und die Funktion m(t) = m0sin(ct/r0) dann ausreichen, um sowohl einzelobjekt-mikroskopisch als auch vielteilchen-makroskopisch die Entstehung der Masse (Materie) aus reiner Bewegungsinformation (reiner Bewegungsenergie) zu gestalten. Dies führt unweigerlich zu einem masse-radius-gekoppelten Raum.
Mittlerweile sind die aktuellen Konsistenzbetrachtungen und formal-analytischen Berechnungsmöglichkeiten des Elementarkörper-Denkmodells, sowie die Forschungs-Ergebnisse der Jahre 2012 - 2018 zum Thema Mikrokosmos und Makrokosmos bemerkenswert. Die große Stärke der Elementarkörpertheorie ist eine skalenübergreifende (aus Sicht der Standardmodelle unvermutete, für nicht möglich "erklärte") Anschaulichkeit, die stets zu formal analytischen Gleichungen führt, die näherungsfrei und in sehr guter Übereinstimmung mit bekannten Messwerten zu konkreten Ergebnissen führt. Hier ist, wieder aktuell, Karl Popper [KP] zu zitieren: ,,Insofern ist die Kausalmetaphyik in ihren Auswirkungen viel fruchtbarer als eine indeterministische Metaphysik, wie sie z. B von Heisenberg vertreten wird; wir sehen in der Tat, daß die Heisenbergschen Formulierungen lähmend auf die Forschung gewirkt haben. Unsere Untersuchung läßt erkennen, daß selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, daß das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei." [KP] K. Popper, Logik
der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher:
Die Einheit der Gesellschaftswiss. Bd. 4;The Logic of scientific
discovery. (1935); 2nd Ed. Wenn man aus Symmetriegründen Radialsymmetrie für elementare Objekte fordert, kann es offensichtlich nur zu einer isotropen Dynamik kommen, die konstruktiv eine Beschreibungsverarmung mittels Radius erhält. Und hier „liegt der Hund begraben“. Denn dann sind die (relativistisch) bewegten Energieträger im Teilchenbeschleuniger, der definitiv kein Inertialsystem ist, nicht „SRT-beladen“ in Schwerpunktsbewegungsrichtung eindimensional verkürzt und „massevergrößert“, sondern aus Gründen der Gesamt-Energie-Erhaltung, radialsymmetrisch verkleinert und äquivalent massereicher. Zur Erinnerung: Streuquerschnitte und Objekt-Ladungsverteilungen, daraus resultierend Formfaktoren und Strukturfunktionen gemäß Standardmodell der Teilchenphysik (SM) sind keine Eigenschaften der Teilchen selbst, sondern stets Näherungen theoriebeladener Wechselwirkungsszenarien. Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Teilchenbeschleunigern sind "falsch" (gemessen), sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich der Ausdehnung ruhender Elektronen (, ruhender Protonen und allgemein der ruhenden Ladungsträger).
Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar. Ursprünge Ein wesentlicher Teil der Inspiration für den Elementarkörper entsprang 1986 der, mir in Grundzügen, bekannten vereinfachten Urknalltheorie. Die stringente Expansion eines «Etwas» aus einer Singularität war für mich ein interessanter Gedanke. Damals wusste ich so gut wie nichts von den «Asymmetrien» der Theorie, der Inflation mit Überlichtgeschwindigkeit und Dunkler Materie. Ich hätte es damals auch als angehender „guter“ Naturwissenschaftler nicht für möglich gehalten, daß, insbesondere innerhalb der Physik, so immens nichtssagend argumentiert werden kann, wie zum Thema Urknall, so grob fahrlässig empirische Werte nicht ernst genommen werden und in letzter Konsequenz wissenschaftlich nicht haltbare Theorien zum inflationären Urknall und zur Elementarteilchenphysik zur reinen „Glaubensfrage“ avancieren. Als leidenschaftlicher Befürworter und Freund plausibler Wissenschaft, lehnte und lehne ich das hoch spekulative, "lieblos" zusammengeschusterte, derzeitige Weltbild der Grundlagenphysik vehement ab.
Gegenstand meiner Betrachtungen ist der inhärent masse-gekoppelte Raum, mit der Forderung das anschauliche, realphysikorientierte Phänomenologien sowie formal einfache Berechnungen der materiebildenden Entitäten (sprich Photon, Elektron und Proton) und eine Korrespondenz zwischen Mikro- und Makrokosmos existieren, die ohne freie Parameter im Rahmen eines konsistenten Denkmodells abbildbar sind. Einen interdisziplinären Denkmodell-Überblick findet man unter Elementarkörpertheorie. |