|
[1]
-------------------------------------------------------------Email
an Robert Gast Zeitarmut
Datenverlust Zensur From:
Dirk Freyling To:
r.gast@die-fachwerkstatt.de Tue,
11 Apr 2017 Guten Tag Herr Gast, ist mein Kommentar vom 8.April 2017 „verloren gegangen“? Ist er aus Zeitgründen noch nicht „gegengelesen“ worden? Oder wurde dieser zensiert? Zur Erinnerung: Auf der Jagd nach Mr. Axion http://www.spektrum.de/news/auf-der-jagd-nach-mr-axion/1446097 vom 6.April 2017 (Autor: Robert Gast) ________________________________ Kommentar von Dirk Freyling, vom 8.April 2017 Axionen, Steilchen und artverwandt Spekulatives Das "führende“ deutsche Populär-Wissenschafts-Magazin (Spektrum) sollte sich - im Rahmen erkenntnistheoretischer Forderungen – deutlich kritischer mit Modellfantasien auseinandersetzen. Denn der Wunsch, respektive die Forderung, dass sich Natur nach einem mathematisch formalen Diktat zeigen muß, ist aus rational logischer und erkenntnistheoretischer Sicht irreal. Fragmentarisch einige Denkanstösse „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein einziges Ereignis bei einer Milliarde Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung (siehe exemplarisch das Higgs-Boson). Viele leben in dem naiven Glauben, daß das Standardmodell der Teilchenphysik (SM) trotz der derzeit 25 freien Parameter, variablen Kopplungskonstanten, mehreren Dutzend postuliert essentiellen Theorieobjekten, assoziierter Verknüpfungszahlen (Quantenzahlen), diverser Substrukturierungs-Thesen, Confinement-These, ... auf rational logischen, konsistenten, experimentell bestätigten, formal berechenbaren Zusammenhängen basiert. Streng genommen ist das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... jedoch ein philosophisches und kein physikalisches Denkmodell. Eine richtungweisende, weit reichende Fehlentscheidung wurde im Jahre 1988 getroffen. Die erste Annahme war, bedingt durch die theoretischen Vorgaben Mitte der 1960er Jahre, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Diese Annahme wurde 1988 bei den EMC-Experimenten nicht bestätigt. Ganz im Gegenteil, es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Die Quark-These von fermionischen Spin-1/2-Teilchen war somit widerlegt. Hier hätte man aus wissenschaftlicher Sicht die "Quark-Idee" experimentell basierend, argumentativ "begraben" müssen. Man kann diesen verpassten (möglichen) Wendepunkt gar nicht genug "strapazieren". Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-1/2-Teilchen "vorgestellt"? Auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber selbst diese, an den Haaren herbeigezogene Maßnahme, rechtfertigt offensichtlich keine Klassifizierung der Quarks als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus nicht beobachtbaren postulierten Theorieobjekten und postulierten Wechselwirkungen auch immer annonciert wird, die Quarks selbst wurden (schon 1988) nicht als Spin-1/2-Teilchen "gemessen". Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den aktuellen theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert. Jedwede "freie-parameterlastige" Ansätze sind schon aus rational logischer Sicht erkenntnistheoretische Nullnummern. Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von Wissenschaftlern trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere Wissenschaftler so passiv? Die transparent beliebigen Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker. Dirk Freyling _________________________________________________________________________
Hier erinnere ich Sie (Autor, Redaktion) daran, daß redaktionell folgende "Botschaft" nach Abschicken eines Kommentares auf der Spektrum-Seite erscheint: “Sehr geehrte Leserin, sehr geehrter Leser, vielen Dank für Ihren Beitrag. Bitte haben Sie Verständnis dafür, dass dieser nicht direkt veröffentlicht wird. Wir behalten uns vor, diesen erst gegenzulesen, um einen Missbrauch unserer Seiten zu verhindern. Außerdem übernehmen wir keine Verantwortung für die Inhalte von Leserzuschriften. Für Ihr Verständnis dankt die Redaktion“ Im Falle eines redaktionell erkannten Missbrauches, wäre es aus vielerlei Gründen wissenswert, wie sich dieser Missbrauch - bezogen auf meinen Kommentar - redaktionell begründet. In Erwartung einer zeitnahen Antwort, Dirk Freyling ------------------------------------------------------------------------------- Ergänzungen 19.Mai 2017
Kurz zum Autor Robert Gast
(ARG) und zur Öffentlichkeitsarbeit der »Spektrum der Wissenschaft«-Redaktion
(SdWR) Man kann Herrn Gast die grundsätzliche theoretische
Beliebigkeit der Standardmodelle und Infantilität im Sprachgebrauch
(WIMP, MACHO, SUSY, Beauty, Charme, Higgsino, Steilchen, Quarkonium,
…) nicht vorwerfen, da er offensichtlich nicht an diesen Entwicklungen
aktiv teilnahm. Preisträger
2013 des Georg von Holtzbrinck Preis für Wissenschaftsjournalismus [2] Robert
Gast
wird von der Jury gewürdigt für seine in DIE ZEIT erschienen Beiträge
„Scotland Yard jagt Mr. Wimp“ (http://www.zeit.de/2013/10/Urknall-Kosmos-Dunkle-Materie-Mister-Wimp/komplettansicht),
„Der unsichtbare Pfleger“, und „Curiosity“ zum Thema Nutzen der
Weltraumforschung. der sich mit der Suche nach der dunklen Materie beschäftigt,
… …“Mit seinen fundiert recherchierten und
spannend aufbereiteten Beiträgen gelingt es Robert Gast eindrucksvoll
beim Leser Begeisterung und Neugier für Wissenschaftsthemen zu wecken.
Er trägt damit wesentlich zur Vermittlung von Wissenschaft an eine
breite Öffentlichkeit bei.“… [2] https://idw-online.de/de/news563321
Zum Gestaltungs- und Zensoren-Team (ARG)-(SdWR) Fehlende Kritikbereitschaft, fehlende
inhaltliche Klarheit und eine - wie mir scheint - „methodisch
zwanghafte Neigung“, hochkomplexe mathematische Konstruktionen durch
beliebige, mitunter wenig intelligente und teils inhaltlich unzulässige
Vergleiche im Rahmen von populärwissenschaftlichen Artikeln den
Spektrumlesern schmackhaft zu machen, verdeutlicht den
Entwicklungs-Zustand der Wissenschaftsredaktion. Vergleiche dazu ähnliche
Artikel, wie „WIMP, wo
bist Du?“ (http://www.spektrum.de/news/wimp-wo-bist-du/1195598) Eine Aussage über die geistige
(Durchschnitts-)Aufnahmefähigkeit und Intelligenz der Leser, ist aus
den bemüht „(über)witzigen“ (Spektrum)-Artikeln kaum abzuleiten,
alleine schon aus dem Grund der willkürlichen Kommentar-Zensur, …
„wir würden ja nie erfahren“, wie „blöd“ der ein oder andere
Leser die Textabsonderungen findet. Nicht nur bei dem Autor Robert Gast, sondern
allgemein redaktionell entfaltet sich eine grundsätzliche,
journalistische, u.a. auch didaktische Problematik für den
wissensneugierigen Leser. Nur wenige Betrachter sind in der Lage, die
eingekapselte Botschaft - seitens der fast ausschließlich
standardmodellfreundlichen Publikationen (Spektrum, Zeit,…) - zu
verstehen. Die systemphysiktreue
Redaktion respektive
der systemphysiktreue Autor, sorgen dafür, daß mathematische Konzepte
ohne physikalische Beweiskraft, insbesondere ohne Wechselwirkung und
Nachweismöglichkeit, sprachlich so aufbereitet werden, daß die Frage
der Theorieexistenzberechtigung in den Hintergrund rückt oder meist gar
nicht gestellt wird. Die Aussage, daß würde beim Leser Begeisterung
und Neugier wecken und zur Vermittlung
von Wissenschaft wesentlich beitragen [2], ist in
Anbetracht stark Freier Parameter lastiger
Denkmodelle mit einer Vielzahl von postulierten, nicht beobachtbaren
Theorieobjekten letztendlich nur ein innerer, Selbstbeweihräucherungs-Akt
der schreibenden Zunft und nach aussen nichts weiter als
unwissenschaftliche Glaubensformung. Realistisch betrachtet gilt: Nicht nur die
Kenntnisse der »Spektrum-Leser«, sondern auch die Kenntnisse vieler
Wissenschaftler, Physiker mit einbezogen, über die Konzeption der
Standardmodelle sind rudimentär. Das hat im Kern mit der rein
mathematischen Struktur der Beschreibungen zu tun. Hier wäre es grundsätzlich hilfreich,
wesentliche Aussagen zur Axiomatik „inhaltlich
neutral“ in verstehbarer Sprache zu übersetzen,
sowie einen geschichtlichen Überblick zu geben, der auch die
dokumentierte Konfusion und Beliebigkeit der Theorieobjekt-Ansichten
(mit der Zeit) nicht verschweigt. Das sind u.a. zentrale Aufgaben eines
Wissenschaftsmagazins. Das derzeitige Artikeltagesgeschäft, sprich
„artikelzufälliges“ Benennen und Aneinanderreihen von
„etablierten“ Denkmodellfantasien und deren Erweiterungen, bleibt
jedoch reine Systemphysik-Propaganda, solange die Redaktion (der Autor)
es nicht schafft, den Lesern auch begleitend argumentativ wertvolle
Modell-Kritik innerhalb des Artikels mit „auf den Weg“ zu geben.
Glaubensbekenntnisse Um den Mechanismus der Indoktrinations- und – man muß es leider so sagen – Verblödungs-Maßnahmen von Spektrum der Wissenschaft mittels News-Artikel schreibender Autoren zu verstehen, bietet sich eine Analyse (Neudeutsch: ein Faktencheck) einer weiteren Veröffentlichung von Robert Gast an. Spektrum der Wissenschaft News 15.03.2017 Teilchenphysik: Krise im Kern des Protons von Robert Gast Erste (technische) Auffälligkeit: Alle im Artikel genannten Quellen (Links) führen nicht auf freie Komplett-Veröffentlichungen. Einzig die „Abstracts“ (Inhaltsangaben) und einige Grafiken sind verfügbar. Diese „inhaltslosen“ Quellenangaben sind allesamt vermeidbar, da in allen Fällen frei verfügbare pdf-Dokumente existieren, die, warum auch immer, von Herrn Gast nicht genannt werden. Gast schreibt: …“So rätseln Physiker seit Jahrzehnten, woher genau der Spin des Protons kommt. Diese quantenmechanische Eigenschaft, die man sich stark vereinfacht als Drehung um die eigene Achse vorstellen kann,“… [10] Kapitel 10.2 Diracsche Elektronentheorie 1928 Seite 10006 Zitat …“Denn der neue Drehimpuls hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen.“… [10]
Quelle: http://www.iup.uni-bremen.de/~bleck/lecture_notes/KT-15Kap.pdf/Kap-10-Elektron_Positron_Leptonen.pdf "Einfach"
ausgedrückt: Der quantenmechanische Spin hat nichts mit einer Rotation
zu tun und ist sozusagen nichts weiter als eine notwendige aber
vollkommen unbegründete (sprich ohne realphysikalische Anschauung)
Eigenschaft, die rein mathematisch generiert wird (vierkomponentiges
Dirac-Spinorfeld mit vier Dirac-Matrizen). Die omnipräsenten, "sachbefund-pathologischen" Beschreibungs-Prozeduren herrschender Physik(-Didaktik) mittels Begrifflichkeiten, wie Spin oder Spin-Bahn-Kopplung suggestiv an realphysikalische Objekte gedanklich "anzukoppeln", die Masse besitzen, Raum einnehmen und rotieren, ist seit Einführung der Quantenmechanik schizophren. Aus dieser Betrachtung folgt, daß alle theoretischen Ausführungen und Berechnungen zu Spin-Wechselwirkungen ("Spin-Bahn-Kopplung" ► Feinstruktur, Kernspin-"HüllenDrehimpuls" ► Hyperfeinstruktur) keine Anschaulichkeit besitzen. Es sind lediglich - mehr oder weniger - komplexe Rechenvorschriften ohne Realobjekt-Anbindung. Gast's Aussage: ...Diese quantenmechanische Eigenschaft, die man sich stark vereinfacht als Drehung um die eigene Achse vorstellen kann,“…ist ein Verdummungsakt. Es bleibt die Frage, ob er das zumindest für sich selbst realisiert. Es wäre interessant zu wissen, wie viele Physiker einerseits den quantenmechanischen Spin als Theorieparameter "verstehen" aber in ihrer Vorstellung stets unterbewusst selbst an (Realobjekt-)Drehungen denken. Da es weder in der Quantenmechanik noch in den Quantenfeldtheorien realphysikalische Objekte gibt und auch keine Bewegungen auf Kreisbahnen existieren, kommt man aus dem Staunen nicht mehr heraus, sofern man konsistent, formal-logisch denkt. Fakt ist: Es wurde noch nie ein quantenmechanischer Spin gemessen, es wird auch in Zukunft kein quantenmechanischer Spin gemessen. Gemessen wird stets ein magnetisches Moment, dem mathematisch ein quantenmechanischer Spin zur Berechnung angeheftet wird. Das magnetische Moment basiert realphysikalisch aber auf Masse und Radius. Sowohl bei quantenmechanischen Spinberechnungen und daraus resultierend Folgeberechnungen erinnern die rein mathematischen Vorgänge an die Epizykeltheorie des Geozentrischen Weltbildes. Die Berechnungen der Epizykeltheorie, mit "damals" 3 freien Parametern waren nie falsch, das dem zu Grunde liegende Weltbild jedoch eine Erkenntnis-Katastrophe. Es stellt sich psychologisch die Frage, warum mehrere Generationen von Physikern Selbst-Theorie leugnend von Bahnen und Drehimpulsen sprechen, schreiben und höchstwahrscheinlich auch denken, wenn "ihre" Theorien weder Bahnen noch Drehimpulse enthalten (dürfen). Eigenrotation setzt räumliche Ausdehnung, Masse und Drehachse voraus. Der "gemeine" Denker sollte sich selbstmotiviert schlicht mal die Frage stellen, warum die Theoretische Physik realphysikalische Objekte programmatisch ablehnt bzw. so sehr "fürchtet".
[11] Gasts
Artikel-Link Diese Aussage respektive die euphemistische
Interpretation der (insgesamt stark theoriebeladenen indirekten)
Messungen ist sachlich und sprachlich ungenau. Es wurden sehr viel kleinere, sogar mit Null
verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European
Muon Collaboration). Siehe: A
measurement of the spin asymmetry and … vom 23.Dezember 1987 Übrigens: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Streuquerschnitte und Objekt-Ladungsverteilungen, daraus resultierend Formfaktoren und Strukturfunktionen sind keine Mess-Eigenschaften der Teilchen selbst, sondern stets Näherungen stark theoriebeladener Wechselwirkungsszenarien. "Wie auch immer", quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, (zweideutiger) »Größenwahn« sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als (mathematik-)gläubigen Menschen ins "Spiel". Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlicht folgendes Beispiel. Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Prominentestes Beispiel: Der (Ladungs-)Radius des Protons.
„Aktuell bestes“ Beispiel: Der
Protonenradius Die Unsicherheit und folgend die „Variation“ der Kern- und Nukleonenradien, exemplarisch des Protonenradius, basierend auf Theoriemodellen und assoziiert unterschiedlichen Experimenten, führt zu Ergebnisunterschieden im Prozentbereich. Aldo
Antognini hat im Rahmen der jährlich stattfindenden Tagung Rencontres
de Moriond (18.März bis 1.April 2017, La Thuile, Aosta valley,
Italy, http://moriond.in2p3.fr/)
„erneut“ auf Ursachen der Fehlinterpretationen „konventioneller“
Protonenradiusmessungen (meist e-p-Streuung) hingewiesen, siehe https://indico.in2p3.fr/event/13763/session/1/contribution/27/material/slides/1.pdf
Damit
„knüpft“ Antognini u.a. an die Veröffentlichung von
Jan C. Bernauer und Michael O. Distler (Juni 2016) Avoiding
common pitfalls and misconceptions in extractions of the proton radius: http://arxiv.org/pdf/1606.02159.pdf
an. Jan
C. Bernauer und Michael O. Distler zeigen „ihren Kollegen“ auf,
(…“The extraction of the proton radius from scattering data is a
treacherous business“…) wie „trügerisch“ die theoretischen
Annahmen zu den Messergebnisinterpretationen aus Streuexperimenten sind.
Das
der Protonen(-Ladungs-)Radius auch bei „typischen“
Elektronenstreuversuchen mit ~ 0,84 fm gemessen werden kann und somit
diese Meßergebnisse im Einklang mit den Messungen am myonischen
Wasserstoff sind, wird exemplarisch auch in Extracting the Proton
Radius from Electron Scattering Data / Douglas W. Higinbotham (http://www.phys.virginia.edu/Files/fetch.asp?EXT=Seminars:2947:SlideShow)
erörtert.
Gast:
…“Nun haben Physiker einen
nennenswerten Fortschritt bei der Beilegung dieser
"Proton-Spin-Krise" gemacht: Ein Team um Yi-Bo Yang von
der University of Kentucky [12] hat
berechnet, dass so genannte Gluonen für etwa die Hälfte des
Protonen-Schwungs aufkommen müssten.“… [12]
Gasts
Artikel-Link Der
Satz ist – losgelöst vom wissenschaftlichen Gehalt – sprachlich
„unsauber“. Denn, entweder die postulierten Gluonen sind (gemäß
theoretischer Ausführungen [13]) verantwortlich, dann müssen
sie nicht aufkommen, sondern kommen auf. [13]
https://arxiv.org/pdf/1609.05937.pdf
…es
handelt sich um eine, im Rahmen der Gittereichtheorie (Lattice gauge
theory), reine Computersimulation. Keines der (mathematisch)
vorkommenden Theorieobjekte ist direkt messbar, theorieverwendete freie
Parameter ergeben ein Ergebnisspektrum. Die Ergebnisse sind stark an die
verwendeten Algorithmen gebunden, diese wiederum sind stark
theoriebeladen. Wünsche dominieren die Reduktion auf „passende“
Simulationsergebnisse. [14]
Gasts
Artikel-Link Gast’s
Wortwahl der ersten seriösen Schätzung
lässt tief und verständnislos
blicken. Waren vorherige und sind sonstige Schätzungen im Vergleich unseriös? Im
„Original“ (The Spin Structure of the Nucleon https://arxiv.org/pdf/1209.2803.pdf
2013)
heißt es schlicht: …”This article reviews our present
understanding of QCD spin physics: the proton spin puzzle and new
developments aimed at understanding the transverse structure of the
nucleon. We discuss present experimental investigations of the
nucleon’s internal spin structure, the theoretical interpretation of
the different measurements and the open questions and challenges for
future investigation. …bringt uns in den Spektrum der Wissenschaft Sprachkindergarten. Vermutete Schwünge umhersausender Elementarteilchen, Forscher schätzen, Experten fragen, … Fazit: »Spektrum der Wissenschaft Artikel-Details« sind beliebig. Spektrum der Wissenschaft (hier mittels Robert Gast) verbreitet Glaubensbekenntnisse zur Kosmologie und Teilchenphysik, statt ausgewogenen, sach-kritischen, pro und kontra Wissenschafts-Journalismus zu praktizieren.
… „Früher“ ging es auch ohne Zensur… siehe
exemplarisch Artikelkommentar 2.
zu „Schwarze Löcher in Grösse
M“ http://www.spektrum.de/news/schwarze-loecher-in-groesse-m/1395720
…dachte ich zumindest. Doch wer „sagt mir jetzt“,
ob und was „damals“ der redaktionellen Zensur zum Opfer gefallen
ist? Erst einmal soweit zu Herrn Gast, Spektrum der
Wissenschaft und der Artikel-Kommentarzensur.
Weiterführendes Fragmente des Standardmodellglaubens
Zum Kennenlernen: Das standardmodell-postulierte Proton-Desaster im "aphoristischen" Bild
Es existieren zahlreiche
paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund
der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie
eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an
Rationalität "gekoppelte" Ironie und Satire schaffen
„hier und da“ eine ertragbare Diskussionsnähe.
Was ist der phänomenologische Unterschied zwischen einem beobachtbaren Photon und einem (postulierten) nicht beobachtbaren Gluon, wenn das Gluon auf Wunsch des symmetriesuchenden Theoretikers, so wie das Photon masselos ist und sich mit Lichtgeschwindigkeit bewegt? Sparen wir uns an dieser Stelle den Hingucker auf gluonische Details, wie deren acht wechselwirkende Ausformungen und diverse theorienotwendige Verknüpfungszahlen. Sparen wir uns auch den Hingucker auf das Photonenpostluat im Rahmen der Elektroschwachen Theorie, welches dem Photon die Entität raubt und durch eine irreale mathematische Mischung ersetzt. Am photon-gluonischen Beispiel wird deutlich, wie beliebig und sinnleer theoretische Physiker „postulieren“. Zur Erinnerung: Mathematik kann nicht zwischen Staubsauger und Staub unterscheiden. Die mit „Füssen“ brachial getretene naturphilosophische Betrachtung heult hier „gluonisch“ auf.
Einige
"SM-Postulate" Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Die
Definition der Masse eines Teilchens bezieht sich im Rahmen des
Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre
Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt,
wie auch die Gravitationswechselwirkung die im Standardmodell nicht
beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert
sich im Propagator des Teilchens. Alle
»Materieteilchen« im Standardmodell sind Fermionen (Spinwert: ½) und
werden durch vierkomponentige Spinoren beschrieben. Die vier Einträge
entsprechen – grob gesagt – der Beschreibung von Teilchen und
Antiteilchen mit jeweils zwei möglichen Spineinstellungen. Unter der (nicht mehr gültigen) Annahme das Neutrinos masselos sind, besitzt das minimale Standard-Modell mit 3 Familien 18 freie Parameter. Die Kopplungskonstanten: αs, α, sinθW. Die Massen der Leptonen: me, mµ, mτ Die Massen der Quarks: md, mu, ms, mc, mb, mt Die Massen der Bosonen: mZ, mW Die Parameter der CKM-Matrix für den Quarksektor: λ, A, ρ, η. Im Falle massiver Neutrinos erhöht sich die Anzahl der freien Parameter um sieben, einerseits für deren Massen, andererseits für die Mischungsmatrix im leptonischen Sektor. Weitere freie Parameter können „auftauchen“, wenn man von dem minimalen Higgs-Sektor zu einem komplizierteren Mechanismus übergeht. Es gibt drei Familien von Teilchen und der einzige Unterschied zwischen den Familien besteht in den Teilchenmassen, ansonsten sind die Eigenschaften von Familie zu Familie gleich. Teilchen aus der zweiten und dritten Familie (Generation) können in Teilchen der ersten Familie zerfallen und Materie besteht nur aus Teilchen der ersten Generation: Up- und Down-Quarks bilden die Protonen und Neutronen der Atomkerne, die von Elektronen umgeben sind.
Lässt man die Neutrinomassen "beiseite", dann unterscheiden sich die Massen des leichtesten Fermions (Elektron) und des schwersten (Top-Quark) um einen Faktor von ca. 400.000, obwohl die Massenterme mit der spontanen Symmetriebrechung denselben Ursprung haben. Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert.
Merke: Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x U(1)Y kann nur masselose Fermionen beschreiben.
QuantenChromoDynamik Die QCD ist im Gegensatz zur QED eine nicht-abelsche Eichtheorie, das heißt die Multiplikation von zwei Gruppenelementen ist im Allgemeinen nicht kommutativ. Das führt dazu, daß in der Lagrange-Dichte Terme auftreten, die eine Wechselwirkung der Austauschteilchen miteinander bewirken. Konkret: Die Austauschteilchen (masselose Gluonen) tragen selbst »Farbladungen« und wechselwirken auch untereinander. Als eine Folge nimmt die Kopplungskonstante αs mit steigender Wechselwirkungsenergie logarithmisch ab („asymptotische Freiheit“). Die Genauigkeit der Theorie-Vorhersagen liegt im Prozentbereich. [Wobei sich die Vorhersagen nur auf die selbstdefinierten Theorieaspekte beziehen. Allgemein kann man "festhalten": Das SM, somit QCD inklusive, hat u.a. "nichts zu sagen" über konkrete Teilchenmassen, assoziierte Lebensdauern, Massenrelationen, zur Gravitation, zur Natur der Feinstrukturkonstanten, zur Phänomenologie des Spins] Elektroschwache
Wechselwirkung Das
Modell von Glashow, Weinberg und Salam vereinigt die elektromagnetische
und die schwache Wechselwirkung zur elektroschwachen Wechselwirkung.
Ihre Struktur ist durch eine nicht-abelsche Eichsymmetrie der Gruppe
SU(2)L×U(1)Y bestimmt. Die Wechselwirkungen der
fundamentalen Teilchen werden durch den Austausch der Eichbosonen (Spin
1) vermittelt, die über lokale innere Symmetrien in die Theorie eingeführt
werden. Die „Rolle“ der Materiefelder übernehmen Fermionen. Die
Materiefelder sind durch jeweils drei Generationen von links- und
rechts-chiralen Quarks und Leptonen gegeben. Zu den Leptonen gehören
Elektron, Myon und Tau sowie ein Neutrino in jeder Generation. Die
sechs Quarks sind Up-, Down-, Charm-, Strange-, Top- und Bottom-Quark. Quarks
wechselwirken sowohl elektroschwach als auch stark. Die Quarks
der ersten Generation (Up und Down) bilden die Bausteine der Protonen
und Neutronen. Leptonen wechselwirken dagegen ausschließlich
elektroschwach. Das
Postulat eines unterschiedlichen Transformationsverhaltens der links-
und rechts-chiralen Fermionen theorieinduziert eine Quantenzahl die als
schwacher Isospin bezeichnet wird, der für die obere Komponente eines
SU(2)-Dubletts den Wert I = +½ und für die untere Komponente I =
− ½ hat. SU(2)-Singuletts werden durch I = 0 gekennzeichnet. Aus
der Annahme, dass die schwache Wechselwirkung die Parität, sprich die
Symmetrie unter Raumspiegelung, maximal verletzt, ergeben sich
unterschiedliche Kopplungen der Eichbosonen der schwachen Wechselwirkung
an links- und rechtshändige Fermionen. Die Quantenzahl der U(1)Y
-Symmetrie, welche die Invarianz der Lagrange-Dichte unter lokalen
Phasentransformationen der Felder angibt, ist die Hyperladung Y, die mit
der elektrischen Ladung Q und der dritten Komponente des schwachen
Isospins I3W durch die
Gell-Mann-Nishijima-Relation Q = I3W + ½Y
zusammenhängt. Aus dem etablierten SM-Formalismus resultieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgsmasse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgsmasse mH ~ 125 GeV führt zu der Situation, daß sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn) Nachkommastellen genau aufheben (müssen). Dies ist das so genannte fine-tuning problem (Feinjustierungsproblem) des SM.
In der elektroschwachen Theorie werden Wechselwirkungen (siehe oben) durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.] Mischungen der elektroschwachen Theorie
Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster". Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“, respektive der Eichbosonen eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Die grundsätzliche Problematik, ausgehend von historisch entstandenen Annahmen zur »Natur der Dinge« exemplarisch zur Natur der Strahlung, die je nach theoretischer Vorlage beispielsweise der (semi-klassischen) Maxwellschen Elektrodynamik, der Quantenelektrodynamik oder der „Elektroschwachen Theorie“ zuzuordnen ist, entstammt der fixen Idee, das ein mathematischer Formalismus ohne Ankopplung an plausible Anschauung aus sich selbst heraus die Wirklichkeit nicht nur abbilden, sondern auch formen kann. Wie sonst sind die mathematischen Mischkonstrukte der Elektroschwachen Theorie zu interpretieren, die dem Photon die beobachtbare Entität bzw. Identität rauben. Hier werden brachial Axiomatik und mathematische Objekte zur realphysikalischen Wahrheit erklärt.
Wie wir alle wissen (sollten) wurde der Lichtäther kollektiv verbindlich abgeschafft. Das ätherassoziierte lichtschnelle, masselose Photon durfte jedoch bleiben. Welchen Sinn macht es „nun“ ein Higgs-Feld samt massebehafteten Higgs-Bosons in „Analogie einzuführen“? Zumal der „Higgs-Mechanismus“ den Teilchen bis auf ein mickriges Prozent gar keine Masse geben kann, nicht einmal in der frei formulierbaren mathematischen Fantasie. Was soll man mit einer ursprünglich masselosen dann „higgskorrigierten“ Theorie anfangen, die 99% der bekannten Masse als „gluonische“ Bindungsenergie in die Welt setzt? Das ist aus epistemologischer Sicht nicht einmal mehr epizyklisch, hier grüsst mit breitem Grinsen die Phlogistontheorie.
Zum Kennenlernen: Wunsch und Wirklichkeit der theoretischen Higgs-Mechanismus-Konzeption Der mathematische Ansatz des Standardmodells der Teilchenphysik (SM), ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die
euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die
ursprüngliche Formulierung "verletzt"15, zweitens
stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar
nicht, da exemplarisch Quarks basierendes Proton und Neutron über das
Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens
die vermeintlichen massegebenden Terme gar keine Massenberechnung
beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen
Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet
schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell
der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht
berechnen. Die einzig der herrschenden Physik bekannte direkte
Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt
nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der
Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt
sein: Die
Massen der rechts- und linkshändigen Fermionen müssen gleich sein.
Das
Neutrino muß masselos bleiben.
Diese
Grundbedingung steht in einem eklatanten Widerspruch zu
Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen
voraussetzen. 15 Diese Aussage bezieht sich nicht primär auf die mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der ursächlich richtigen Wahl auf.
Widersprüche werden zur Absurdität wenn wir uns den Neutrinos „nähern“. Neutrinos soll(t)en trotz ihrer von Null verschiedenen Massen mit Lichtgeschwindigkeit „fliegen“. Die Euphorie war im September 2011 groß, als Meßfehler dazu führten, daß sich Neutrinos angeblich „sogar“ mit Überlichtgeschwindigkeit „bewegten“. Die nicht oder nur ungerne kommunizierte Wahrheit ist: Die ansonsten „beschworene, heilige“ Relativitätstheorie wurde und wird von den Theoretischen Physikern des Standardmodells seit eh und je methodisch ignoriert. Daß wird zumindest menschlich verständlicher, wenn man sich vor Augen führt, daß das Standardmodell Gravitation mathematisch nicht „integrieren“ kann. So wie in allen anderen Lebensbereichen wird früher oder später jegliche Forderung nach Neutralität und Disziplin der Eitelkeit der Macher geopfert. Man könnte hier auch „speziell“ sagen, daß die Protagonisten des Standardmodells die eigentlichen Kritiker der Relativitätstheorie sind, die insbesondere ihr »Theorie-Ereignis« namens Neutrino zum finalen Schlag gegen die Relativitätstheorie seit Jahrzehnten „aufrüsten“. Die Chancen sind perspektivisch gar nicht so schlecht, wenn man sich verdeutlicht wie „unwissenschaftlich“ und beliebig Neutrinos gemäß Standardmodell "geartet" sind.
Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess. Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen. "Gehen
wir gleich mal in die Praxis"...
Gemäß
SM „bedeutet“ Neutrinoforschung beispielsweise: …Man
misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss der
Neutrinos… Nun
sind aber schon Pionen (π0, π -, π+)
und erst recht Kaonen (K+, K-, K0,
K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe https://en.wikipedia.org/wiki/Kaon,
https://en.wikipedia.org/wiki/Pion)
des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie Masse,
Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung ist bereits
„beachtlich“. Die möglichen Umwandlungen ergeben „ vielfältige“
Wechsel-Wikungs-Spiel-Szenarien. Des Weiteren: Das neutrale Kaon ist nicht
sein eigenes „Antiteilchen“, dies führt (allgemeiner) zu der
Konstruktion der Teilchen-Antiteilchen-Oszillation (siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation)
und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer
kurzlebigen Form existieren. Daraus
nun auf Eigenschaften („flavor-oszillierender“) Neutrinos zu schließen,
potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu
verstehen, braucht man den absoluten Glauben an axiomatische
Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, daß
jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin - in
Verbindung mit der »experimentellen Seite« - grob geschätzt einige
Dutzend weitere ergebnisorientierte Annahmen machen müssen, … kümmert
SM-Gläubige nicht).
Neutrino-Oszillationen ...und der Neutrino-Forscher sprach: mein Wille geschehe, es werde umgewandelt... …“Das
Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten
Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine Teilchen
mit wohldefinierter Masse sind, sondern eine quantenmechanische Überlagerung
von Teilchen mit verschiedener Masse. Diese Mischung zwischen
Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln beschrieben.
Neutrinomischung kann zu dem Phänomen der Neutrinooszillationen führen,
wenn Neutrinos in gewisser Entfernung vom Produktionsort wieder detektiert
werden. Auf dem Weg vom Produktionsort zum Detektor erhalten die
verschiedenen Massenzustände unterschiedliche quantenmechanische Phasen,
und es kommt zu einer Interferenz... So kann ein Neutrino, das als
Elektronneutrino produziert wurde, beim Detektor mit einer gewissen
Wahrscheinlichkeit als Myonneutrino beobachtet werden.“… Da können religiöse Führer noch eine Menge von Neutrinomachern lernen...
Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental.
SM-internes Problem Massebehaftete Neutrinos sind nicht kompatibel mit dem Standardmodell. Zwangsläufig führen massetragende Neutrinos zum Auftreten von rechtshändigen Neutrinos oder von Majorana-Neutrinos. Rechtshändige Neutrinos unterliegen aber nicht der elektroschwachen oder der starken Wechselwirkung (steriles Neutrino) sondern nur der Gravitation. Majorana-Neutrinos sind ihre eigenen Antiteilchen, so daß die Leptonenzahlerhaltung nicht mehr gewährleistet ist. Mit anderen Worten: Die „geforderten“ Erhaltungssätze (Energie, Impuls, Ladung und Leptonenzahl) sind bei einem „Zerfall“[Z] zu beachten. Beim Beta-Minus-Zerfall resultiert ein Anti-Elektron-Neutrino (Leptonenzahl -1 gemäß Elektron (Leptonenzahl +1), da auf der „anderen“ Seite des „Zerfalls“ das Neutron steht (Leptonenzahl 0). Sollte sich das Neutrino als Majorana-Teilchen (eigenes Antiteilchen) "herausstellen" (...heißt eigentlich: ...wenn man sich darauf einigt), so ist diese Unterscheidung hinfällig. Mehr noch: Die Leptonenzahlerhaltung wäre verletzt und würde als Erhaltungssatz nicht mehr gelten! [Z] SM-Sprachgebrauch Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.
Es existiert eine – ausgehend von den Postulaten zur Schwachen Wechselwirkung - Unbestimmtheit des Beta-Minus-Zerfalls, die eine spezifische Neutrinoexistenz aus phänomenologischer Sicht stark diskussionswürdig macht.
Neutrinomassen ≠ 0
Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark Unabhängig von der SM-konstruierten
Leptonenzahl gilt folgendes: Das Neutrino wurde historisch eingeführt
weil das Energiespektrum der (emittierten) Elektronen keine diskrete
sondern eine kontinuierliche Verteilung zeigt. Doch wenn das
Anti-Elektron-Neutrino, mit welcher unteren Massegrenze auch immer, die
„fehlende“ Energie aus dem Laborsystem „entführt“ und nur durch
die Schwache Wechselwirkung (effektiv*) „wirken“ kann, dann bedeutet das schlicht
und ergreifend, daß bereits bei dem Prozess der Schwachen Wechselwirkung
ein kinetisches Energie-Kontinuum des postulierten Neutrinos vorhanden
sein musste. Denn nach diesem Prozess gibt es gemäß Postulat keine
weitere Wechselwirkungsmöglichkeit. Nur wie soll dies phänomenologisch
erklärt werden? * da die postulierte Graviationswechselwirkung hier nicht "ins Gewicht fällt" Die lapidare Aussage des SM, daß der Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfindet sagt nichts über den konkreten Ablauf aus, wie, woher und warum das Anti-Elektron-Neutrino nun während der Schwachen Wechselwirkung unterschiedliche Energiemengen aufnimmt um die „fehlende“ Energie im Elektronenspektrum zu kompensieren.
Bei genauer Betrachtung ist die Situation weitaus komplexer, da sowohl postuliert Quarks basierendes Neutron als auch das Quarks basierende Proton zu ~ 99% aus undefinierter Bindungsenergie besteht und sich die Schwache Wechselwirkung (energetisch) somit nur auf ~ 1% des Zerfallsprozesses auswirkt. Die Masse des d-Quarks [qm] beträgt 4,8 (+0,5 / - 0,3) MeV/c², die Masse des u-Quarks beträgt 2,3 (+0,7 / - 0,5) MeV/c² [qm]. [qm] Quarkmassen : http://pdg.lbl.gov/2013/tables/rpp2013-sum-quarks.pdf Das bedeutet, der Massenunterschied beträgt zwischen 1,5 bis 3,5 MeV/c². Das Elektron-Anti-Neutrino mit einer Masse(nuntergrenze) von ≤ 2.2 eV/c² kann maximal ~ 0,78 MeV aufnehmen. Gemäß Elektronenenergiespektrum ist die mittlere Energie aber deutlich kleiner als 0,78 MeV, die vom Neutrino "aus dem Laborsystem entführt wird". Was ist mit der fehlenden Energie der Schwachen Wechselwirkung geschehen? "Gluonische Bindungsenergie" kann es nicht geworden sein, da Gluonen nicht an der postulierten Umwandlung eines d-Quarks in ein U-Quark teilhaben. Auch der virtuelle Zauber des ~ 80,4 GeV/c² schweren W-Bosons kann real-energetisch nichts aufnehmen. Hier gilt für die herrschende Physik mehr denn je:
Wir haben also im Bild des SM anfangs 1 u-Quark und 2 d-Quarks, zwischenzeitlich ein W-Boson und ~ 99% Bindungsenergie (was das auch immer phänomenologisch sein soll) und nach der Umwandlung 2 u-Quarks, 1d-Quark, 99% Bindungsenergie, 1 Anti-Elektron-Neutrino, 1 Elektron und zusätzlich ~ 0,78 MeV Energie. Egal wie die Energieverteilungsmöglichkeiten der ~ 0,78 MeV auf Proton (2 u-Quarks, 1d-Quark, 99% Bindungsenergie), Elektron und Anti-Elektron-Neutrino auch aussehen mögen, der Prozess der Schwachen Wechselwirkung müsste bereits so geartet sein, daß diese Verteilungsmöglichkeiten gewährleistet sind, da nach der Schwachen Wechselwirkung keine Energieabgabe des Neutrinos an das Proton und Elektron mehr möglich ist. Das bedeutet aber, daß es keinen diskreten Umwandlungsprozess eines d-Quarks in ein u-Quark geben kann. Nicht Diskret bedeutet hier insbesondere: Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark. Aus einem Neutron-u-Quark entstehen durch die Schwache Wechselwirkung energetisch unterschiedliche Elektron-Anti-Neutrinos, da ja nach der Entstehung außer der Schwachen Wechselwirkung weitere Wechselwirkungsmöglichkeiten ausgeschlossen werden. Somit existiert keine energetisch eindeutige Umwandlung eines u-Quarks in ein d-Quark. Losgelöst von dieser Problematik sei der Vollständigkeit halber auch daran erinnert, daß es sich experimentell nicht um Einzelobjekte sondern um Vielteilchenobjekte (mehr als 1 Neutron) handelt und beschleunigte Ladungen Energie abstrahlen. Es ist wohl nicht davon auszugehen, daß die entstandenen Protonen und Elektronen „plötzlich“ mit einer konstanten Geschwindigkeit vorliegen. „Wo“ ist das assoziierte Photonenspektrum des Beta-Minus-Zerfalls? Wie sieht es aus?
Und noch "ETWAS"... Nach de Broglie kann jedem Teilchen und jedem zusammengesetzten Körper eine Materiewelle zugeordnet werden.
Das Konzept der de Broglie Materiewelle liefert einige sehr interessante Aspekte. Erst einmal ist zu beachten, daß de-Broglie-Materiewellen der (zur Ruhe-Energie additiven) kinetischen Energie der Teilchen entsprechen und nicht den Teilchen selbst, die durch ihre ruhemassespezifischen Comptonwellenlängen charakterisiert sind. Im Gegensatz zu den Comptonwellenlängen sind de-Broglie-Materiewellen nicht teilchencharakteristisch, da beispielsweise für Neutronen, Elektronen und Protonen, Moleküle bei passender Geschwindigkeit de-Broglie-Materiewellen teilchenunspezifisch als Äquivalent der kinetischen Energien identisch sein können. De Broglie Materiewellen sind interferenzfähig. Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu Neutrinoexistenz- und Neutrinowechselwirkungs-Postulaten experimentell gesichert und experimentell reproduzierbar.
Experimentell-phänomenologisches Problem Es gab keine Realobjektphänomenologie für das masselose Neutrino und auch die "Mischkalkulation" für Neutrinomassen ist nichts weiter als eine formalisierte Fiktion. Hier gilt rational logisch und folgend das unlösbare Neutrino-(Nicht-)Existenz-Problem bedingt durch die Phänomenologie der Masse, bedeutet: Wer bewegte Massen will, bekommt auch masseninhärente Materiewellen. Der Wunsch der Neutrinogläubigen, daß auch massebehaftete Neutrinos nur der Schwachen Wechselwirkung und der Gravitation unterliegen ist eine Theorie-(Schutz-)Behauptung. Hier zeigt sich wieder einmal, wie eklatant sich fehlende Denkmodell-Phänomenologie auswirkt.
Da die de Broglie Materiewelle ohne Einfluss einer möglichen (Sub-)Strukturierung nur von der Ruhemasse und der Geschwindigkeit des "Teilchens" abhängt, gilt das Konzept der Materiewelle allgemein. Hier wäre, in Hinblick auf SM postulierte Theorieobjekte und Wechselwirkungsszenarien noch zu bemerken, daß nachweislich die postulierte komplexe (eingekapselte) Quarks-Gluonen-xxx-Struktur keinen Einfluß auf die de Broglie Materiewelle hat, Beweise: de Broglie Materiewellen des Neutrons, Protons, Molekül- und Fullerene- de Broglie Materiewellen.
Es spricht aus Sicht der Materiewelle nichts gegen massebehaftete Neutrinos.
Ein massebehaftetes Neutrino besitzt eine von der Gesamtenergie abhängige de-Broglie-Materiewelle. Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte.
Nehmen wir an, daß die Masse [M] des postulierten Elektron-Anti-Neutrinos ~2,2 eV/c2 beträgt. Das entspricht einer Masse von ~ 3,92e-36 kg und einer Comptonwellenlänge von 3,59e-7 m. [M] Für den Fall, das die kinetische Energie viel größer als die Ruheenergie des Neutrinos ist, folgt für die de Broglie Materiewelle λdeB (Ekin » E0) ~ h ·c / Ekin . In diesen Fällen spielt die (Elektron-Anti-Neutrino)-Masse keine Rolle. Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem* zu einer (relativistischen) Gesamtenergie des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg. *im Extrem bedeutet, daß Proton und Elektron nach der Umwandlung ruhen, davon ist zwar praktisch nicht auszugehen, hier geht es aber gedanklich um die Bestimmung der kurzwelligsten Neutrinomateriewelle gemäß zur Verfügung stehender Energie. Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von γ ~ 3,55e5 (γ ~ Eges/E0) und einer resultierenden De-Broglie-Materiewelle von ~ 1,59e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m. Gemäß Beta-Zerfall-(kinetische)Energie-Elektron-Spektrums müssen weitere langwelligere Neutrino-De-Broglie-Materiewellen auftreten, die daraus resultieren, das die zunehmende kinetische Energie im Elektronenspektrum, den Neutrinos nicht zur Verfügung steht. Wie bereits oben erwähnt, kann das vom SM postulierte Elektron-Anti-Neutrino keine diskrete Gesamtenergie besitzen, da es nur über die Schwache Wechselwirkung agiert. Das bedeutet, daß reziprok zum Energiespektrum der Elektronen ein Energiespektrum des Elektron-Anti-Neutrinos bereits bei der Schwachen Wechselwirkung, sprich bei der Umwandlung eines d-Quarks in ein u-Quark, auftritt, gleichgültig welche Masse das Elektron-Anti-Neutrino besitzt.
Losgelost vom Betazerfall besitzen alle bewegten massebehafteten Neutrinos, ungeachtet ihrer postulierten Entstehung, Materiewellen. Nun zu behaupten, es gäbe u.a. kontinuierliche kosmische Neutrinoströme, die nicht wechselwirken, widerspricht dem Konzept der Materiewelle. Gäbe es massebehaftete Neutrinos, so würde die Materienwellen assoziierte (kinetische) Energie dieser letztendlich auf vielfältige Weise dazu führen, daß uns allen sehr heiß werden würde. De Broglie Materiewellen sind interferenzfähig. Die einzige Möglichkeit der Neutrinomacher aus diesem phänomenologischen Neutrinodesaster neutrinogläubig zu entkommen, ist die De-Broglie-Materiewelle für Neutrinos als nicht existent zu erklären.
Higgs-Mechanismus und Higgs Boson Das Higgs-Boson ist keine direkte Folge einer
Eichsymmetrie, vermittelt daher keine Wechselwirkung im Sinne des
Standardmodells und wird daher auch nicht als Austauschteilchen angesehen.
Das Higgs-Boson wird jedoch „benötigt“, um die elektroschwache
SU(2)x(U(1)-Symmetrie zu brechen und so sowohl dem Z- als auch den
W-Bosonen Masse zu verleihen. Formal besteht eine Ähnlichkeit zwischen der
Beschreibung der Supraleitung durch Ginsburg und Landau und dem
Higgs(-Kibble)-Mechanismus. Der Meißner-Ochsenfeld-Effekt der
Supraleitung wird mit Hilfe einer endlichen Eindringtiefe der magnetischen
Induktion beschrieben. Dies entspricht einem Masseterm bei den
elektromagnetischen Eichfeldern der Hochenergiephysik, wenn man die
Eindringtiefe mit der Compton-Wellenlänge der Masse interpretiert. Dieses
gern gewählte, anschauliche Beispiel für eine Symmetriebrechung hat aber
mit dem konstruierten, "künstlichen" Symmetriebruch des
Higgs-Mechanismus phänomenologisch nichts zu tun. Es entsteht der
Eindruck, daß mit dem Beispiel des Ferromagnetismus eine emotionale Nähe,
sozusagen ein gutes Gefühl, für den Higgs-Mechanismus erzeugt werden
soll. Auffällig ist, daß folgender Sachverhalt kaum thematisiert wird: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Es gilt generell zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im Verlauf der mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasiewünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze
sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des
SM fällt auf, daß im Rahmen des Formalismus Masse und Masselosigkeit je
nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich
durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln
besitzt keinen realphysikalischen Nährwert im Sinne eines
Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im
Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die
dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist,
zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der
Neutrinos, die aber - gemäß Neutrinooszillationen - auch von
SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische
Forderung läuft ins Leere. Wenn
man alle Terme in der Lagrangedichte des SM berücksichtigt, die möglich
sind (lorentzinvariante, eichinvariante und renormierbare), existieren
keine, die Neutrinomassen beschreiben. Das liegt daran, daß das SM keine
rechtshändigen Neutrinos enthält. D.h. um Neutrinomassen zu beschreiben,
muss man entweder nicht-renormierbare Terme einführen, die dann auf
Majorana-Massenterme führen, oder man muss neue Freiheitsgrade einführen,
sprich rechtshändige Neutrinos. Beides würde über das SM hinausgehen
und zur Folge haben, daß Neutrinos ihre eigenen Antiteilchen wären
(Majorana-Neutrinos). SM-Postulat:
Es existiert ein Higgs-Feld an jedem Punkt der Raumzeit, das an die W- und
Z-Bosonen und die Fermionen koppelt. Durch diese Kopplung erhalten diese
Teilchen Masse. Zusätzlich existiert ein massiver Freiheitsgrad des
Feldes, welcher als Higgs-Boson bezeichnet wird. Dieses ist jedoch nicht
als solches für die Massen verantwortlich, wechselwirkt aber mit den
Fermionen und Bosonen und kann somit erzeugt und gemessen werden.
Mit
anderen Worten: Es gibt 3 verschiedene Arten von Termen, die das
Higgs-Feld nach der spontanen Symmetriebrechung enthalten: Kopplung des
Higgs-Feldes an Fermionen (Yukawa-Terme), Kopplung des Higgs-Feldes an die
W- und Z-Bosonen, kinetische- und Massen-Terme für das Higgs-Boson. Aber
die „Higgs-Terme“ sind eigentlich keine Massenterme, sondern
Wechselwirkungsterme. Erst nach der spontanen Symmetriebrechung
"simuliert" ein Teil des Higgs-Feldes „mittels“
Erwartungswert Ausdrücke, die wie Massenterme aussehen. Ohne Übertreibung kann man wohl „sagen“: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Der Higgs-Mechanismus "lebt", salopp formuliert, zu 99% von unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer) Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch die folgend postulierten "gluonenbasierenden" Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden, auch nicht beobachtbar sind. Streng genommen ist der Umstand, daß das SM mittels Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche fast immer nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse.
Welche Austauschteilchen wohl zwischen mir und den Pferden vermittelt haben?
Higgs-Boson-Detektion Wunsch und Wirklichkeit Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle. "Randbemerkung" zum SM-Sprachgebrauch Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie jedoch Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik. Standardmodell-Sicht:
Am LHC kann das Higgs-Boson auf verschiedene Arten produziert werden. Die
Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die
Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur über
eine Schleife aus massebehafteten Teilchen stattfindet.
Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird: Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes". Aber: Die angeblichen Beobachtungen mit großer Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle - allen voran H→bb̅ mit 57% -. Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt. Somit reduziert sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in zwei
Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen) zwei
Photonen zwei
W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei
Neutrinos) Zerfall
in zwei Tau-Leptonen ["Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.]
Der etwas andere Interessenkonflikt Kommen wir noch einmal zurück auf die Aussage, daß das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Diese von den Standardmodell-Theoretikern verbreitete Unmöglichkeits-These ist durchaus obskur, wie im Folgenden erörtert wird. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC, veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Voraussagen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell) ~ 125 GeV/c² angesiedelt sind.
Besonders auffällig und besonders bemerkenswert sind die Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!) Top
and Higgs Masses in Dynamical Symmetry Breaking Abstract A
model for composite electroweak bosons is re-examined to establish
approximate ranges for the initial predictions of the top and Higgs masses.
Higher order corrections to this 4-fermion theory at a high mass scale
where the theory is matched to the Standard Model have little effect, as
do wide variations in this scale.
However, including all one loop evolution and defining the masses
self-consistently, at their respective poles, moves the top mass upward by
some 10 GeV to near 175 GeV and the Higgs mass down by a similar
amount to near 125 GeV. ..."4.Conclusions.In
summary, one gets remarkably stable predictions for the top and Higgs
masses and in a parameter free fashion. The only inputs were the
experimentally known couplings and the W-mass. A characteristic prediction
of this type of theory is mh < mt, so that the
Higgs, which is practically a tt¯ condensate, is deeply bound. In view of
the present dearth of events from the FNAL experiments with DØ and CDF,
the above prediction for the top (near 175 GeV) may not be wholly
wild. In light of the recent unfortunate developments at the SSC, the
somewhat low prediction for the Higgs mass, near 125 GeV, may take
considerably longer to test…
Aktualisierte Quelle siehe: Higgs and Top Masses from Dynamical Symmetry Breaking – Revisited ... "predictions by the authors D. E. Kahana and S. H. Kahana , mH = 125 GeV/c² uses dynamical symmetry breaking with the Higgs being a deeply bound state of two top quarks. At the same time (1993) this model predicted two years prior to the discovery to the top its mass to be mt = 175 GeV/c²..." Die Berechnungen von D. E. Kahana und S. H. Kahana führten letztendlich zu parameterfreien, einfachsten Gleichungen. Zum Vergleich: Die experimentelle Top-Quark-Masse wird (heute) mit 173.34 ± 0.27 (stat) ± 0.71 GeV/c² angegeben. …”In
later work [2] we evaluated the masses self-consistently at the mass-poles,
which resulted in predictions of mt
~ 175 GeV, and mH
~ 125 GeV as central values within
ranges produced by varying the measured strong coupling”… [1]
Kahana D E and Kahana S H 1991 Phys. Rev. D43 2361–2368 [2]
Kahana D E and Kahana S H 1995 Phys. Rev. D52 3065–3071 (Preprint hep-ph/9312316)
[3]
Unal G (CDF) 1995 Nucl. Phys. Proc. Suppl. 39BC 343–347 [4]
Peryshkin A (D0 Collaboration) 1995 Nucl.Phys.Proc.Suppl. 39BC 353–356
Die Berechnungsgrundlagen des Autoren-Teams Kahana/Kahana stammen aus dem Jahre 1961 von Y.Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 Ein "Problem", welches aus den präzisen K-K-Berechnungen folgt, ist, daß man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 war das gesamte SM-Projekt bereits Anfang der 1960er Jahre erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und Milliardenbeträgen für alle möglichen Beschleuniger]2. Wir "reden" physikalisch von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin. ]2 List of Particle Accelerators Around the World K-K führten weiter aus, daß ihre theoretischen Berechnungen letztendlich die nächste, von den SM-Protagonisten gewünschte SM-Modifikationsstufe namens Supersymmetrie (SUSY) "logisch" ausschließt. Mit anderen Worten: Die Voraussagen von K-K identifizieren spätestens seit 1993 das SUSY-Vorhaben als haltlos. ..."The
latter in its unbroken form preserves the very chiral symmetry, the
breaking of which, after all, yields all of our results. Moreover the
early efforts of Buchmuller and Love ]3 in demonstrating the
apparent incompatibility of SUSY and dynamical chiral symmetry breaking
deserve recognition. One could, of course, break SUSY in the presently
accepted ”soft” form but not without loss of the naturalness of
dynamical chiral symmetry breaking."... ]3
Chiral symmetry and supersymmetry in the Nambu-Jona-Lasinio model
Max-Planck-Institut
für Physik und Astrophysik, Munich, Fed. Rep. Germany ..."The connection between chiral symmetry and supersymmetry is investigated in the context of a supersymmetric extension of the Nambu-Jona-Lasinio model. A supersymmetric gap equation is found and it is shown that no solution exists which breaks chiral symmetry. A simple physical argument for this phenomenon is given and possible implications for the dynamics of composite models are discussed"...
Hier zwei aktuelle "Stimmen" zur inhaltlichen Untermauerung... Stimme
1 … the discovery of
the Higgs boson is a nightmare scenario for everything else, including
supersymmetry, extra dimensions, and string theory. Because finding
the standard model Higgs at this energy means that there’s no need for
any of those things. A Higgs at 125 GeV and nothing else at the LHC,
totally consistent with the standard model, mean that if supersymmetry
exists, it needs to be at such a high energy that it no longer solves the
problem it was designed to solve!... Stimme 2 ..."The ground-state Higgs amplitude is indeed very much like the 19th century ether. According to theory, it is constant everywhere in the universe. It does not exert drag, however. The only effect of the universal Higgs field background is to give everything a mass. So why not just drop this whole Higgs theory, and simply say that every particle has some mass? For most purposes, one could of course do this. The reason to care about whether mass comes from a Higgs field, instead of just existing fundamentally, is the technical but very important problem of renormalizability. With fundamental particle masses, interacting relativistic quantum field theory just does not work. Even the simplest calculations lead to infinite integrals. It’s not just an unlucky accident, either; it’s built deeply into quantum mechanics and relativity.... ...Finding the Higgs boson is indeed not very much like finding a stable particle. The Higgs is a rare and exotic, highly unstable resonance, at a very high frequency... ...Was it worth all the money it cost, to find an interesting phantom? To be honest, I would not say so. I think there are lots of other scientific problems that would have given us more bang for our buck... ...The last point, perhaps, is that the Higgs discovery is actually a catastrophe for particle physics. It’s the last nail in the coffin. The good scenario would have been to find no Higgs, but instead a zoo of quite unexpected other phantoms. Then there would have been more papers to write and more tunnels to dig. As it is, we give the Nobel prize to a couple of very old guys, and the rest of the entire field has nothing left to do. There could in principle be lots of new things to discover with bigger accelerators, but we see no sign of them, so the scientific case for investing billions more in bigger tunnels is too hard to make. There will be no next generation after the LHC... ...Huge problems remain unsolved. What determines the constants of nature? What (if anything) is dark matter? How does quantum mechanics deal with gravity? Where does the ‘arrow of time’ come from? Particle physics has never made any contribution to those questions, but at one time it seemed that perhaps it might, if we just built a bigger ring. Now the only thing we can do is simply find some big new ideas. That’s even harder than building something like CERN." Stimme 2 Quelle: Textauszüge der ersten (unzensierten) Antwort des Physikers I (Lehrstuhl für Theoretische Physik) aus dem »Scheunemann-Antwort-Fragen-paper« Nun, die SM-Protagonisten befanden und befinden sich also von Anbeginn des Higgs-Mechanismus des Jahres 1964 in einer aussichtslosen Situation, aussichtslos insofern man wissenschaftliche Standards berücksichtigt bzw. aufrechterhalten möchte und insofern man sich ein naturphilosophisch konsistentes Denkmodell wünscht. Damit CERN mit dem LHC nicht das gleiche Schicksal ereilte, wie das Fermilab in den USA, musste endlich das Higgs-Boson gefunden werden. Da selbst im Rahmen des selbstprophetischen stark theoriebeladenen Detektionsprozesses keine "Spuren" von supersymmetrischen Teilchen (S-Teilchen) in den untersuchten Energie-Fenstern zu finden waren, war die Zeit gekommen, ein fundamentales Ereignis, das Higgs-Boson, zu "entdecken". So wie es die Theorie fordert und so, wie es viele gemäß ihrer Berechnungen auch gerne sehen wollten (siehe oben benanntes »Schücker-paper«). Wie wir alle wissen, geschah dies letztendlich nach aufwendiger Rechnerarbeit (iterativ) 2012. Nur die 125 GeV/c²-Higgs-Boson-Detetektion ist das endgültige Aus für die Supersymmetrie. Das war eigentlich vom ersten Tag des Higgs-Mechanismus bekannt. Das die SM-Protagonisten nun mit aller Macht krampfhaft versuchen die Energien postulierter supersymmetrischer Partner-Teilchen in, aus heutiger Sicht, unerreichbare Energiefenster erweiterungs-formalistisch zu verschieben entspricht einem "nackten" Existenzkampf. Sie wollen größere Beschleuniger, damit sie ihre Arbeit nicht verlieren und in der Supersymmetrie "weiterleben" können. Sie wollen aus banalen, materiellen Gründen ein erkenntnistheoretischen Schrecken ohne Ende, »wir« jedoch sollten endlich einen Punkt machen und dem Schrecken ein Ende bereiten. Die Standardmodell-Arbeit war vom ersten Tag an naturphilosophisch wertlos. Das SM ist eine seit mehr als 50 Jahren anhaltende "beschleunigerendemische" Inszenierung, "bestenfalls" ein Akt naiver Konzeptkunst ohne Gemeinnutz, der Forschungsgelder mit allerlei dokumentierter irreführender Suggestionen, theoriefreundlicher Meßergebnisselektion und theoriebeladener Thesenwillkür abgriff, abgreift und abgreifen möchte. D. E. Kahana und S. H. Kahana erkannten spätestens 1993 klar und deutlich, daß die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahre 1961, sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964. Ob sie selbst diesen Sachverhalt erkenntnistheoretisch in aller Deutlichkeit realisierten, ist ergebnisorientiert ein nebensächlicher Aspekt. Fazit: Die extrem präzisen Voraussagen zur versuchsinterpretierten Top-Quark-Masse und zur versuchsinterpretierten Higgs-Boson-Masse waren zu keinem Zeitpunkt unbestimmt und anders als die offizielle Aussage der SM-Vertreter bereits im ursprünglichen »Formalismus« enthalten. Die experimentelle Bestätigung der Higgs- und Top-Quark-Masse, gemäß indirekter Detektion im Rahmen der Zerfallskanalanalyse war (und ist) effektiver, aktiver Bestandteil der Zirkelschlussdynamik. Inwieweit jüngere Wissenschaftler, die im SM-Projekt involviert sind, selbständig sehen und verstehen können, was sich hier abgespielt hat und sich demnächst abspielen soll, ist schwer zu sagen, da diese schon als Schüler mit Quarks-Märchen und artverwandten baren SM-Unsinn infiltriert wurden... Didaktisch ist die herrschende erkenntnistheoretische Leere seit Jahrzehnten fester Bestandteil der Ausbildung. Der Denk-Monotheismus wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, das Quarks-basierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Diese "psychologischen Komponenten" wiegen schwer.
Neben den oben beschriebenen Zirkelschlussaktivitäten halten wir fest: ... Aus formal-logischer Sicht sind die betragsmäßige Ladungsgleichheit und "Spingleichheit" der Leptonen im Vergleich mit den quarks-basierenden, asymmetrisch ladungsfragmentierten Baryonen fundamentale Indizien für die Widerlegung des Standardmodells. Dieser Sachverhalt ist auch ohne Standardmodell-Detailkenntnis klar verständlich. Preonen, Lepto-Quarks und SUSY als "Auswege" sind gewünscht, aber auch hier verstehen die "Macher" des SM nicht, worauf sie sich einlassen. "Mit einfachen Worten"... Keine noch so angepasste, ergebnisorientierte, iterative Berechnung postulierter Quarks-basierender Strukturen, mit einer oder mehreren Gluonensorten, relativistischen Interaktionen oder was den Theoriemachern auch immer einfällt, wird aus allgemein anerkannt logischen Gründen erklären können, warum ein solch asymmetrisch-verschachteltes Gebilde im resultierend unvermeidbar „nur statistischen Mittel“ das Gleiche liefert, wie das vom SM postuliert strukturlose „leptonische“ Elektron[L]. Der ganze Fantasie-Quatsch des Standardmodells der Teilchenphysik zerbricht schlicht an der Tatsache, daß Elektron und Proton betragsmäßig eine gleiche elektrische Ladung besitzen. Für diese simple Denkmodell-Qualitäts-Analyse muß sich Niemand mit Lagrangedichte, taylorreihenaffinen Entwicklungskoeffizienten, assoziierten millionenfachen Rechenschritten und Theorien rumschlagen, in denen selbst Schreibfehler neue Lösungen generieren. [L] Wobei, wie könnte es auch anders sein, die propagierte Strukturlosigkeit des Elektrons "relatives" SM-Blablabla ist. Zur Erinnerung: Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung. Am Rande bemerkt: Im Rahmen der Mathematik der QFT hat (schon) das Vakuum eine unendlich große Ladung (, die wieder verschwinden muß ...). Postulierte LadungsrelativierungDie
durch die Ladung verursachte Polarisation des Vakuums in der Region um die
Elementarladung sorgt für einen Abschirmungseffekt. Das führt dazu, daß
die beobachtete Ladung keine Konstante mehr ist, sondern vom Abstand bzw.
der entsprechenden Energieskala Q abhängt, bei welcher ein Prozess
stattfindet. Dies wird als Laufen der Kopplung bezeichnet. In der QED nimmt
die Stärke der Kopplung mit steigender Energieskala Q zu. Die
so genannte effektive Kopplungskonstante wird definiert durch: Der "Sprung" von der Quantenelektrodynamik (QED) mit der Sommerfeldschen Feinstrukturkonstanten α als „kleine“ Kopplungskonstante (k ~1/137) der Störungstheorie zur Quantenchromodynamik (QCD) mit k~1 erfolgt mittels der „Idee der Asymptotischen Freiheit“ (1973 Frank Anthony Wilczek, David Gross, David Politzer, Nobelpreis 2004) . Es wird „bequemerweise“ postuliert, daß die wachsende Energie kleinerer Abstände auch die Kopplungskonstante verkleinert. Auch hier wird Ergebnis orientiert theoretisch postuliert und ein beabsichtigtes „Ereignis“ konstruiert. "QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!]
Am Rande bemerkt: Die schlechteste skalenübergreifende theoretische Voraussage aller Zeiten Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, "ungeheuere" Vakuumenergiedichte ist ohne Zweifel numerisch die größte bisher bekannte Absage an das Konstrukt quantenfeldtheoriebasierender Berechnungen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 niedriger als in den theoretischen Berechnungen des Standardmodells.
Der mathematische „Weg“ einer konstruierten Divergenz Fassen wir noch einmal zusammen: Auch ohne mathematische Konkretisierung lässt sich die Vorgehensweise qualitativ verstehen. Es wird ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Ergebnis eine unendlich große Ladung besitzt. Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, daß Ergebnis war bekannt. Statt unverstandene, phänomenologiebefreite Grössen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, realphysikbefreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche Voraussagen liefert, bleibt erkenntnistheoretisch "Nichts". Zentrale Fragen werden von den Protagonisten der herrschenden Physik erst gar nicht thematisiert bzw. können gar nicht gestellt werden. Warum ist das Massenverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron als elementar-strukturlos* angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist "gegenstandslos". Warum sollten von allen postuliert »Substruktuierten« nur das Proton zeitstabil sein? "Gleiches" gilt für das postuliert strukturlose ("leptonische") Elektron. Elektron und Proton werden erst konsistent verständlich, wenn man ein Denkmodell verwendet, in dem eine »elementare Wesensgleichheit« vorausgesetzt wird, die "zwanglos" zum (masselosen) Photon führt und wenn aus diesen Betrachtungen u.a. formal-analytische Gleichungen folgen.
Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ−. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung. ...Die üblichen Quarks basierenden 1%-u-d-SM-Fantasien der Materie enden also keineswegs mit dem stabilen Proton und langlebigen Neutron. Wer Spaß an noch mehr „Fantasie“ hat, findet „in“ Delta-Baryonen so etwas wie Käfer a la Franz Kafka. Wobei Kafkas Käfer den Vorteil besitzen als Fiktion gelten zu dürfen. Delta-Baryonen hingegen bilden die „harte“ Realität der SM-Gläubigen ab, wenn auch nur für angenommene ~ 6 ·10-24 Sekunden als Spinanregungen des Neutrons und Protons. Das
Tauon (τ-Lepton) ist das schwerste der drei geladenen
Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~
1777 MeV/c2, die "Lebenszeit" ~ 2,906 ± 0,010 · 10−13 s.
Übergeordnet und deutlich abstrakter als der theoretische Ansatz der folgend skizzierten „Supersymmetrie“ ist der naive Super-Glaube der Macher und Fans an axiomatische Schöpfungen. Es drängt sich die Frage auf, wie es dazu kommen konnte, daß eine Gruppe von wissenschaftlich Ausgebildeten allen Ernstes fest daran glauben, daß sich die messbare Realität „demnächst“ an SUSY orientiert. SUSY ist interdisziplinär betrachtet ein endemisches Loch im Wissenschaftsbetrieb. Physisch reduziert sich die Welt der SM- und SUSY-Anhänger auf Teilchenbeschleuniger und deren methodisch vorselektierte „Ergebnisse“. Diese werden monatelang in Rechner-Clustern algorithmisch „aufgearbeitet“, bis die von der Theorie gewünschten Resultate vorliegen.
"Kurz zur SUSY" Alles super oder was?… Unter
einer Supersymmetrie versteht man eine verallgemeinerte
Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und
Fermionen beschreibt. Nach dem Coleman-Mandula-Theorem ist dies die
einzige Klasse von Symmetrien der S-Matrix, die neben den
Raum-Zeit-Symmetrien und den durch halbeinfache Lie-Gruppen beschriebene
Eichsymmetrien noch denkbar ist. Wenn die Natur exakt supersymmetrisch wäre,
so müssten die durch eine supersymmetrische Transformation verbundenen
Bosonen und Fermionen in der Masse entartet sein. Die beobachteten Bosonen
und Fermionen zeigen eine solche Massenentartung jedoch nicht, so daß die
Supersymmetrie gebrochen sein muß und allenfalls eine näherungsweise
Symmetrie der Natur sein kann. Analytisch betrachtet, „praktisch“ gedacht und vereinfacht ausgedrückt… Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert, sondern demontiert. Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert zumindest Vollbeschäftigung.
„Steilchen, ich habe Dich bei
Deinem Namen gerufen. Du bist mein.“ Quelle: Die Geburt SUSY. Natur
fein aufgepasst, …
„Kurz und fragmentarisch“ zu SUSYs Naturdiktat
Die
Annahme der Existenz von dunkler Materie stellt das Standardmodell vor ein
unlösbares Problem. Keines der „Standardmodellteilchen“, auch nicht
das Neutrino, ist ein geeigneter Kandidat für dunkle Materie. In der
Supersymmetrie hingegen kommt das postulierte Neutralino, der Superpartner
der neutralen gleichfalls postulierten Eich- und Higgsbosonen, in
Betracht. Ein
„phänomenologisch zulässiges“ (es darf gelacht werden)
supersymmetrisches Modell der Teilchenphysik ist durch die minimale
supersymmetrische Erweiterung des Standardmodells (MSSM) gegeben. Die
Brechung der Eichsymmetrie beruht in diesem Modell, wie bei dem
Standardmodell, auf dem Higgs-Mechanismus, so daß alle Aussagen zum
Massenproblem im Standardmodell prinzipiell zunächst auch für das MSSM
gelten. Als zusätzliches Problem taucht im MSSM die Frage auf, wie die
Supersymmetrie gebrochen wird. Aufgrund dieser ungelösten Frage kommen zu
den 25 freien Parametern des Standardmodells im MSSM weitere 106 freie
Parameter hinzu, die überwiegend die Massen und die Mischungswinkel
der Superpartner beschreiben. Ohne weitere Annahmen erlaubt die
Supersymmetrie keinerlei tiefergehendes Verständnis der Fermionmassen. Das
Higgs-Boson muss also auch im MSSM explizit eingeführt werden. Wie die
anderen Teilchen erhält es einen Superpartner, das Higgsino. Allerdings führt
die Existenz von nur einem Higgsdublett und seinem Higgsino zu einer
Eichanomalie im elektroschwachen Sektor. Dies kann durch die Einführung
zweier Higgsdubletts und dazugehörigen Higgsinos behoben werden. Ein
weiterer Grund für die Existenz von mindestens zwei Higgsdubletts im MSSM
sind die Yukawakopplungen, die aus den trilinearen Termen des
Superpotentials stammen. Da man
keine gleichschweren Superpartnerpaare in der Natur beobachtet, müssen
die Superpartner der Standardmodellteilchen wesentlich höhere Massen
haben. Eine Brechung der Supersymmetrie ist demnach erforderlich. Aus
theoretischer Sicht wäre eine spontane Brechung durch ein asymmetrisches
Vakuum wünschenswert, denn so könnte die Lagrangedichte des MSSM
weiterhin invariant unter Supersymmetrietransformationen bleiben. Um das
Natürlichkeitskriterium der Superpartnermassen zu erfüllen, müsste eine
solche Brechung bei der Energieskala der Symmetriebrechung der schwachen
Wechselwirkung stattfinden. Dies ist allerdings phänomenologisch
ausgeschlossen. Die Supersymmetrie wird daher durch explizite Terme in der
Lagrangedichte gebrochen. Um die Natürlichkeit zu gewährleisten, dürfen
durch die Brechung keine quadratischen Divergenzen in den
Strahlungskorrekturen der Superpartnermassen auftreten. Man spricht von
einer sanften Brechung. Die
gegenüber dem Standardmodell hinzugekommenen Teilchen führen u.a. zu
einer Verdopplung der Higgsdubletts, daraus resultierend zu weiteren
skalaren Moden, die zu massiven Higgsbosonen mischen. Ähnliche Mischungen
treten bei den Superpartnern der Higgs- und Eichbosonen und denen der
Fermionen auf. Von den acht skalaren Feldern sind die drei Bosonen
unphysikalisch, denn sie bilden wie im Falle des Standardmodells die
longitudinalen Moden der massiven Vektorbosonen. Es verbleiben fünf
massive Higgsbosonen im MSSM. Wie die Eichbosonen der SU(2)L
und U(1)Y mischen auch die dazugehörigen Gauginos dank der
elektroschwachen Symmetriebrechung zu Eigenzuständen der elektrischen
Ladung. Die geladenen Winos bilden mit den zwei geladenen Higgsinos
gemischte Masseneigenzustände…(Mensch nicht Lachen, ich kann nichts dafür…,
die Kindersprache kommt aus dem Glaubens-Zentrum der
Hochphysik-Intelligenz…also bitte politisch korrekt ernst bleiben oder
wir brechen jetzt ab…) ...An dieser Stelle sparen wir uns weitere SM-Fantasien im Detail zu Neutralinos, Sfermionen, … und zitieren Theodor Fontane, »Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn. «
Zwischenklang „Hintergründe“ zum Mitdenken
…Geschichte wiederholt sich… Georg Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der Phlogistontheorie… Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen. Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen. Die Theorie ermöglichte eine Systematisierung von Stoffgruppen… Antoine Laurent de Lavoisier „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte… Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, daß das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten. Selbstversuch: Ersetze Phlogiston durch „moderne Theorieobjekte“ (Quarks, Gluonen,…, Axionen, WIMPs, dunkle Materie, dunkle Energie, dunkle Photonen, …) „Brennt da was“? „Willkommen“ im Barock 2.0 Nun stellen Sie sich vor, daß Sie – trotz omnipräsenter Indoktrination der Standardmodellverkünder und weit verbreiteter SM-generierter moderner Objekt-Märchen – rationales Denken wieder finden… „Plötzlich“ fliegen Ihnen freie Parameter, postulierte Theorieobjekte, postulierte Wechselwirkungen, Nichtbeobachtbares, axiomatische Verletzungen, postulierte Nichtwiderlegungsfrechheit, Beliebigkeitsthesen, »taylorreihenaffines Zeug« und was Sie sonst noch so „drauf haben“ ohne Unterlass solange um die Ohren, bis die Steilchen im Köpfchen komplett verrückt werden und mit Neutrinos wild kopulieren, als wenn es kein Morgen geben würde. Virtuelles beginnt so stark zu glühen, daß selbst die dunklen Photonen traumatisiert das Weite suchen und völlig falsch im Zerfallskanal abbiegen. Dann beginnt das große leptonische Zittern, gefolgt von der Angst kosmischen Ausmaßes, der ohnehin gebrechlichen WIMPs, die aber doch irgendwie auch Lust verspüren. Jetzt zeigt das »SM« seine wahre Bedeutung. Erste Todesahnungen kommen auf. Nun gibt es kein Halten mehr. Verstörte Quarks fressen Gluonen, die Folgen sind fatal. Verstopfte Verdauungskanäle rufen viel zu schwere Vektorbosonen auf den Plan, die eilig an einem neuen Symmetriebruch arbeiten um den alten Zustand wieder herzustellen. Zu spät. All’ das und noch viel mehr endet orgastisch mit einer Flut von Theorie-Objekt-Suiziden, durchaus nicht ungewöhnlich für die 2. und 3. Generation der einst expressionistisch entstandenen Erst-Fantasien. Gleichgeschaltet und völlig enthemmt singt der Beauty-Quarks-Chor politisch inkorrekt „Auferstanden aus Ruinen…“ So abgedroschen es auch klingen mag, jetzt sind sich alle einig, „Lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.“ Ausblick Die (Un-)Art der stark theoriebeladenen Messungen und gekoppelten "Theorie-Entwicklungen" war und ist nur möglich, weil keines der postulierten und dann vermeintlich gefundenen „Teilchen“ direkt messbar ist. Der thematisch und experimentell nicht involvierte, naive Wissenschaftler ging und geht jedoch davon aus, daß es stets verbindliche Messungen gegeben hat, die gemäß wissenschaftlichen Standards die Behauptung einer Teilchenexistenz und dessen Teilcheneigenschaften rechtfertigten. Das war und ist aber in keinem Fall der "Beschleunigerphysik" so (gewesen). Die Unmöglichkeit einer direkten Messung ist inhärent mit dem Standardmodell der Teilchenphysik verknüpft. Die "Zersplitterung der Materie" als Selbstzweck mathematischer Theorien und die zwangsläufige Zunahme irrelevanten Wissens, insbesondere in Form von unbeständigen virtuellen Teilchen, ist mittlerweile etabliertes Standarddenken. Statt in Vereinfachung endet dieses formale Postulieren und "Theorie-Verfeinern" offensichtlich nicht im Erkenntniszuwachs, sondern in wissenschaftlicher Beliebigkeit. Die auf Mathematik basierende Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. Physikalisch reale Körper-Wechselwirkungen und Viel-Objekt-Strukturen manifestieren die physikalische Realität. Reale Materie besitzt Masse und Ausdehnung (Radius). Realobjektinteraktionen sind meist nichtlinear, dissipativ und irreversibel. Umso stärker Modell-Idealisierungen von diesen natürlichen „Randbedingungen“ abweichen, desto weniger brauchbar sind die Denk-Modelle. Rational logisch folgt: Die mit den Standardmodellen inhärent verbundene real nicht existente Zeitumkehr ist ein starkes Argument gegen diese Modelle (zur Naturbeschreibung). Des Weiteren ist das nicht energieerhaltende Konzept virtueller Theorieobjekte und resultierend virtueller Wechselwirkungen erkenntnistheoretisch gleichfalls ohne Realitätsbezug. Der „springende Punkt“: Den Standardmodellen fehlt es generell an plausibler Phänomenologie. Die Behauptung diese wäre nicht mehr denkbar, weil die theoretischen Implikationen, wie die Raum-Zeit, die menschliche Vorstellung sprengen sind Zirkelschlüsse, da hier abstrakte theoretische Modelle zur realphysikalischen Wahrheit erklärt wurden. Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es phänomenologischer Betrachtungen und Erklärungen. Das omnipräsente, inhaltliche Problem der herrschenden (Grundlagen-)Physik besteht im Wesentlichen darin, daß im Denken und in resultierenden Formalismen Energie ausschließlich an Masse koppelt. Sobald man jedoch berücksichtigt, daß der Raum eine der Masse entsprechende Energie besitzt, ergeben sich gänzlich neue Betrachtungsmöglichkeiten.
|