[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite....]
Zur Form des Vortrages: Auch für den "Higgs-Mechanismus" gilt, wie für das Standardmodell der Teilchenphysik (SM) insgesamt, daß eine rein wissenschaftliche Auseinandersetzung unmöglich ist. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen eine ertragbare Diskussionsnähe. Hintergründe Aus Realphysik-Sicht phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern im Rahmen des "Higgs-Mechanismus" «Freie-Parameter-Gleichungen», die zu keinem konkreten Berechnungs-Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß mittels postulierter Kaskadenereignisse in vorbezeichneten Zerfallskanälen als "Nachweis" postuliert wird. Wesentliche Inkonsistenzen, die angewandte Willkür, axiomatische Verletzungen usw. der Standardmodellphysik werden im Folgenden explizit benannt,... Des Weiteren wird aufgezeigt, daß der (ergebnisunfähige) Higgs-Mechanismus nicht benötigt wird. Das Higgs-Boson müsste im Sinne der präzisen Berechnungsmöglichkeit Kahana-Boson heißen! D. E. Kahana und S. H. Kahana berechnen nicht nur die Higgs-Masse aus 2012 bereits 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse aus 1995 bereits 1993 (!) präzise, gleichfalls ohne freie Parameter. Higgs- und Top-Quark-Masse resultieren aus stringenten Überlegungen (siehe folgend entsprechende Ausführungen und Quellen unter "Der etwas andere Interessenkonflikt").
Übergeordnet stellt sich die Frage, was im Rahmen der theoretischen Implikationen der Lagrangedichte-Phsik überhaupt berechnet wird. Denn im Rahmen der masse-radius-gekoppelten Proton-Antiproton-Materiebildung ist das vermeintliche Higgs-Boson eine phänomenologisch begründete Materiebildungsmöglichkeit, die sich zwanglos aus der Elementarkörpertheorie ableitet und einfachst berechnen lässt. Daraus folgt, daß der gesamte Lagrangedichte-Phsik basierende theoretische und experimentelle Aufwand seit den 1970er Jahren keinerlei Erkenntnis-Mehrwert besitzt. Die mathematischen Spielereien des SM "entpuppen" sich als Zirkelschlüsse. |
Higgs-Boson-Kreationen und andere Kleinigkeiten Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die
euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die
ursprüngliche Formulierung "verletzt"1, zweitens
stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar
nicht, da exemplarisch Quarks basierendes Proton und Neutron über das
Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens
die vermeintlichen massegebenden Terme gar keine Massenberechnung
beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen
Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet
schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell
der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht
berechnen. Die einzig der herrschenden Physik bekannte direkte
Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt
nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der
Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt
sein: Die
Massen der rechts- und linkshändigen Fermionen müssen gleich sein.
Das
Neutrino muß masselos bleiben.
Diese
Grundbedingung steht in einem eklatanten Widerspruch zu Neutrino-Oszillationen
(Nobelpreis 2015), die zwingend Neutrinomassen
voraussetzen. 1 Diese Aussage bezieht sich nicht nur auf die mathematische Konzeption, sondern ist auch erkenntnistheoretisch zu verstehen. Warum sollte man einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der ursächlich richtigen Wahl auf.
Was es mit Vektorbosonen, dem skalaren Higgs-Boson und "Artverwandten" auf sich hat, wird im Folgenden "geklärt". "Später" wird im vorliegendem Kapitel der Higgs-Mechanismus aus Sicht des Standardmodells "skizziert" und (nochmals) unter erkenntnistheoretischen Gesichtspunkten "analysiert".
Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle.
Der Higgs-Boson-Status (2017) aus Sicht des Standardmodells
"Randbemerkung" zum SM-Sprachgebrauch Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie jedoch Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.
Standardmodell-Sicht:
Am
LHC kann das Higgs-Boson auf verschiedene Arten produziert werden. Die
Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die
Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur über
eine Schleife aus massebehafteten Teilchen stattfindet.
Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird: Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks*, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes". Aber: Die angeblichen Beobachtungen mit großer Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle - allen voran H→bb̅ mit 57% -. Wie nicht anders zu erwarten, sind die Standardmodell-Macher um keine Ausrede verlegen bzw. arrangierten Theorie und experimentellen Aufbau in der Gestalt, daß Messungen möglichst diffus bleiben. Soll heißen: Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt.
Das Mißverständnis der SM-Denker kommt aus der fehlenden, respektive falschen Annahme, wie sich Materie bildet. Nach dem Motto viel nützt viel glauben diese, man müsse TeV in "Etwas" stecken, wobei die Teilchen nur im GeV-Bereich erwartet werden. Aber es existiert noch ein ganz anderes Problem. Wie gezeigt wird, führt die q0-Elektron-q0-Positron-Wechselwirkung im primären Maximum zu einer Energie von ~ 140 MeV , die nur ungeladene Pionen0 bildet.
Erst die möglichen Konstellationen der ladungsabhängigen Materiebildung des sekundären und tertiären Maximums der e+-e--Wechselwirkung schaffen die gewünschten 125 GeV (wie gezeigt wird). Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner. Ein Grund warum der LEP (Large Electron-Positron Collider, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN) trotz der erreichten 209 GeV Bildungsenergie keine Teilchen mit 125 GeV "produzierte". Später mehr dazu. Somit reduziert(e) sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in zwei
Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen) zwei
Photonen zwei
W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei
Neutrinos) Zerfall
in zwei Tau-Leptonen ["Herzlichen Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.] update* zum 57% in bottom/antibottom-Quarks Zerfallskanal ...nach Jahren der »simulation and reconstruction - Schönrechnerei« wurde auch dieser "Kanal mit einer Genauigkeit von 3,6σ besetzt", siehe die Ausführungen zu Kalter Kaffee neu gefiltert unter Neuigkeiten Juli-August-2017. Was ist aus den - vom System selbst festgelegten - "nötigen" 5σ "Genauigkeit" geworden? Ein weitere Ausnahme nach dem Motto "Was kümmert uns unser Geschwätz von gestern"?
Der etwas andere Interessenkonflikt Kommen wir noch einmal zurück auf die Aussage, daß das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Diese von den Standardmodell-Theoretikern verbreitete Unmöglichkeits-These ist durchaus obskur, wie im Folgenden erörtert wird. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC, veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Voraussagen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell) ~ 125 GeV/c² angesiedelt sind. An dieser Stelle soll auch erwähnt werden, daß die "ungeschönte" Messgenauigkeit* in der Größenordnung von ~ 5% liegt. Die Angabe eines "Messwertes" für mH(experimentell) von ~ 125 GeV/c² ist also mit "äußerster Vorsicht zu genießen", es könnten bei 5% "apparativer (methodischer) Ungenauigkeit" auch "leicht" 119 oder 131 GeV/c² sein. * “…the energy resolution is expected to be better than 6%...” Quelle siehe insgesamt LHC-Detektoren im Detail
Besonders auffällig und besonders bemerkenswert sind die Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!) Der ergebnisunfähige Higgs-Mechanismus wird nicht benötigt ! Die brisante Erkenntnis, die sich aus den theoretischen Details ergibt, ist die, daß der Higgs-Mechanismus nicht benötigt wird, zumal dieser keine Möglichkeit eröffnet, die Higgs-Masse zu berechnen. D. E. Kahana und S. H. Kahana berechnen nicht nur die Higgs-Masse 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse präzise, gleichfalls ohne freie Parameter. The authors model itself is based on the NJL model of
Nambu and Jona-Lasinio (http://www.scholarpedia.org/article/Nambu-Jona-Lasinio_model).
The NJL model is an ancestor of the standard model's electroweak+ Higgs
sectors, and it's also an approximation to the low-energy scalar sector of
QCD (i.e. pions and sigma meson. Kahana and Kahana modify it in an unusual
way. The NJL model has emergent scalars and pseudoscalars. Kahana and
Kahana add vector interactions in order to produce the electroweak gauge
bosons as bound states. As results D. E. Kahana und S.
H. Kahana get the Higgs boson mass, the top quark mass, and
even the weak mixing angle.
Top and Higgs Masses in Dynamical Symmetry Breaking Abstract A
model for composite electroweak bosons is re-examined to establish
approximate ranges for the initial predictions of the top and Higgs masses.
Higher order corrections to this 4-fermion theory at a high mass scale
where the theory is matched to the Standard Model have little effect, as
do wide variations in this scale. However, including all one loop
evolution and defining the masses self-consistently, at their respective
poles, moves the top mass upward by some 10 GeV to near 175 GeV and the Higgs mass down by a similar amount to near 125
GeV. ..."4.Conclusions.In
summary, one gets remarkably stable predictions for the top and Higgs
masses and in a parameter free fashion. The only inputs were the
experimentally known couplings and the W-mass. A characteristic prediction
of this type of theory is mh < mt, so that the
Higgs, which is practically a tt¯ condensate, is deeply bound. In view of
the present dearth of events from the FNAL experiments with DØ and CDF,
the above prediction for the top (near 175
GeV) may not be wholly wild. In light of the recent unfortunate
developments at the SSC, the somewhat low prediction for the Higgs mass,
near 125 GeV, may take
considerably longer to test…
Aktualisierte Quelle siehe: Higgs and Top Masses from Dynamical Symmetry Breaking – Revisited ... "predictions by the authors D. E. Kahana and S. H. Kahana , mH = 125 GeV/c² uses dynamical symmetry breaking with the Higgs being a deeply bound state of two top quarks. At the same time (1993) this model predicted two years prior to the discovery to the top its mass to be mt = 175 GeV/c²..." Die Berechnungen von D. E. Kahana und S. H. Kahana führten letztendlich zu parameterfreien, einfachsten Gleichungen. Zum Vergleich: Die experimentelle Top-Quark-Masse wird (heute) mit 173.34 ± 0.27 (stat) ± 0.71 GeV/c² angegeben. …”In
later work [2] we evaluated the masses self-consistently at the mass-poles,
which resulted in predictions of mt
~
175
GeV, and mH
~
125
GeV as central values within ranges produced by varying the measured
strong coupling”… [1]
Kahana D E and Kahana S H 1991 Phys.
Rev. D43
2361–2368 [2]
Kahana D E and Kahana S H 1995 Phys.
Rev. D52
3065–3071
(Preprint
hep-ph/9312316)
[3]
Unal G (CDF) 1995 Nucl.
Phys. Proc. Suppl. 39BC
343–347 [4]
Peryshkin A (D0 Collaboration) 1995 Nucl.Phys.Proc.Suppl.
39BC
353–356
Konträr zur Aussage des Standardmodells sind die milliardenschweren Teilchenbeschleuniger-Versuche, die allesamt nur zu indirekten Messungen in vorselektierten Zerfallskanälen mit Wahrscheinlichkeiten in der Größenordnung von 1 zu 10 Milliarden führen, gegenstandlos, da die exakten theoretischen Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!) keinerlei empirischen Befund benötigten. Michael
J. Tannenbaum (http://www.phenix.bnl.gov/~sapin/)
macht in seinen Ausführungen: Waiting
for the W and the Higgs
(https://arxiv.org/pdf/1608.06934.pdf)
folgende Bemerkungen (Seiten 20 und 21): …”At
the 50th course of the ISSP from June 23–July 2,2012 [Zichichi 2012],
there was an unusually large number of invited distinguished guests, such
as Peter Higgs (Fig. 12) and Murray Gell-Mann, because it was also the
40th Anniversary of QCD. I presented a talk about “Highlights from BNL
and RHIC” on Wednesday June 27; then something very interesting happened.
In the question period after my talk, when I was asked about some theory
calculation of the PHENIX data, I said that I didn’t discuss theory, I
leave that to the theorists. I added that “I don’t even talk about the
Higgs boson until I see one ...” (Strictly this was not true, as I did
mention the Higgs boson because I doubted that it gives mass to fermions.)
At dinner, I spoke to Peter Higgs and said that I hope he wasn’t
offended by my statement—he wasn’t. Then he said, “You’re from
Brookhaven, right. Make sure to tell Sid Kahana that he was right about
the top quark 175 GeV and the Higgs boson 125 GeV” [Kahana and Kahana
1993].”…
Man würde wohl annehmen, daß die äußerst präzisen Berechnungen des Autoren-Teams Kahana/Kahana als Top-Meldungen, beispielsweise von der SM-"Pressestelle", zu der Top-Quark-Masse- und Higgs-Boson-Masse-"Detektion" verkündet wurden. Aber nichts dergleichen passierte. Spätestens seit der Higgs-Boson-"Entdeckung" sind die Kahana/Kahana-Arbeiten "retrospektivisch" im Rahmen des SM als außergewöhnlich zu bezeichnen. Aber warum gibt es keine adäquate Erwähnung oder gar den Nobelpreis für diese Theorieleistungen? An dieser Stelle drängt sich ein unschöner Verdacht auf, dessen Begründung im Folgenden skizziert wird.
Die Berechnungsgrundlagen des Autoren-Teams Kahana/Kahana stammen aus dem Jahre 1961 von Y.Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 Ein "Problem", welches aus den präzisen K-K-Berechnungen folgt, ist, daß man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 war das gesamte SM-Projekt bereits Anfang der 1960er Jahre erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und Milliardenbeträgen für alle möglichen Beschleuniger]2. Wir "reden" physikalisch von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin. ]2 List of Particle Accelerators Around the World K-K führten weiter aus, daß ihre theoretischen Berechnungen letztendlich die nächste, von den SM-Protagonisten gewünschte SM-Modifikationsstufe namens Supersymmetrie (SUSY) "logisch" ausschließt. Mit anderen Worten: Die Voraussagen von K-K identifizieren spätestens seit 1993 das SUSY-Vorhaben als haltlos. ..."The
latter in its unbroken form preserves the very chiral symmetry, the
breaking of which, after all, yields all of our results. Moreover the
early efforts of Buchmuller and Love ]3 in demonstrating the
apparent incompatibility of SUSY and dynamical chiral symmetry breaking
deserve recognition. One could, of course, break SUSY in the presently
accepted ”soft” form but not without loss of the naturalness of
dynamical chiral symmetry breaking."... ]3
Chiral
symmetry and supersymmetry in the Nambu-Jona-Lasinio model
Max-Planck-Institut
für Physik und Astrophysik, Munich, Fed. Rep. Germany ..."The connection between chiral symmetry and supersymmetry is investigated in the context of a supersymmetric extension of the Nambu-Jona-Lasinio model. A supersymmetric gap equation is found and it is shown that no solution exists which breaks chiral symmetry. A simple physical argument for this phenomenon is given and possible implications for the dynamics of composite models are discussed"...
Hier zwei aktuelle "Stimmen" zur inhaltlichen Untermauerung... Stimme
1 …
the discovery of the Higgs boson is a nightmare scenario for
everything else, including supersymmetry, extra dimensions, and
string theory. Because finding the standard model Higgs at this energy
means that there’s no need for any of those things. A Higgs at 125 GeV
and nothing else at the LHC, totally consistent with the standard model,
mean that if supersymmetry exists, it needs to be at such a high energy
that it no longer solves the problem it was designed to solve!...
Stimme 2 ..."The ground-state Higgs amplitude is indeed very much like the 19th century ether. According to theory, it is constant everywhere in the universe. It does not exert drag, however. The only effect of the universal Higgs field background is to give everything a mass. So why not just drop this whole Higgs theory, and simply say that every particle has some mass? For most purposes, one could of course do this. The reason to care about whether mass comes from a Higgs field, instead of just existing fundamentally, is the technical but very important problem of renormalizability. With fundamental particle masses, interacting relativistic quantum field theory just does not work. Even the simplest calculations lead to infinite integrals. It’s not just an unlucky accident, either; it’s built deeply into quantum mechanics and relativity.... ...Finding the Higgs boson is indeed not very much like finding a stable particle. The Higgs is a rare and exotic, highly unstable resonance, at a very high frequency... ...Was it worth all the money it cost, to find an interesting phantom? To be honest, I would not say so. I think there are lots of other scientific problems that would have given us more bang for our buck... ...The last point, perhaps, is that the Higgs discovery is actually a catastrophe for particle physics. It’s the last nail in the coffin. The good scenario would have been to find no Higgs, but instead a zoo of quite unexpected other phantoms. Then there would have been more papers to write and more tunnels to dig. As it is, we give the Nobel prize to a couple of very old guys, and the rest of the entire field has nothing left to do. There could in principle be lots of new things to discover with bigger accelerators, but we see no sign of them, so the scientific case for investing billions more in bigger tunnels is too hard to make. There will be no next generation after the LHC... ...Huge problems remain unsolved. What determines the constants of nature? What (if anything) is dark matter? How does quantum mechanics deal with gravity? Where does the ‘arrow of time’ come from? Particle physics has never made any contribution to those questions, but at one time it seemed that perhaps it might, if we just built a bigger ring. Now the only thing we can do is simply find some big new ideas. That’s even harder than building something like CERN." Stimme 2 Quelle: Textauszüge der ersten (unzensierten) Antwort des Physikers I (Lehrstuhl für Theoretische Physik) aus dem »Scheunemann-Antwort-Fragen-paper« Nun, die SM-Protagonisten befanden und befinden sich also von Anbeginn des Higgs-Mechanismus des Jahres 1964 in einer aussichtslosen Situation, aussichtslos insofern man wissenschaftliche Standards berücksichtigt bzw. aufrechterhalten möchte und insofern man sich ein naturphilosophisch konsistentes Denkmodell wünscht. Damit CERN mit dem LHC nicht das gleiche Schicksal ereilte, wie das Fermilab in den USA, musste endlich das Higgs-Boson gefunden werden. Da selbst im Rahmen des selbstprophetischen stark theoriebeladenen Detektionsprozesses keine "Spuren" von supersymmetrischen Teilchen (S-Teilchen) in den untersuchten Energie-Fenstern zu finden waren, war die Zeit gekommen, ein fundamentales Ereignis, das Higgs-Boson, zu "entdecken". So wie es die Theorie fordert und so wie es viele gemäß ihrer Berechnungen auch gerne sehen wollten (siehe oben benanntes »Schücker-paper«). Wie wir alle wissen, geschah dies nach aufwendiger Rechnerarbeit (iterativ) Mitte 2012. Nur die 125 GeV/c²-Higgs-Boson-Detetektion ist das endgültige Aus für die Supersymmetrie. Das war eigentlich vom ersten Tag des Higgs-Mechanismus bekannt. Das die SM-Protagonisten nun mit aller Macht krampfhaft versuchen die Energien postulierter supersymmetrischer Partner-Teilchen in, aus heutiger Sicht, unerreichbare Energiefenster erweiterungs-formalistisch zu verschieben entspricht einem "nackten" Existenzkampf. Sie wollen größere Beschleuniger, damit sie ihre Arbeit nicht verlieren und in der Supersymmetrie "weiterleben" können. Sie wollen aus banalen, materiellen Gründen ein erkenntnistheoretischen Schrecken ohne Ende, »wir« jedoch sollten endlich einen Punkt machen und dem Schrecken ein Ende bereiten. Die Standardmodell-Arbeit war vom ersten Tag an naturphilosophisch wertlos. Das SM ist eine seit mehr als 50 Jahren anhaltende "beschleunigerendemische" Inszenierung, "bestenfalls" ein Akt naiver Konzeptkunst ohne Gemeinnutz, der Forschungsgelder mit allerlei dokumentierter irreführender Suggestionen, theoriefreundlicher Meßergebnisselektion und theoriebeladener Thesenwillkür abgriff, abgreift und abgreifen möchte. D. E. Kahana und S. H. Kahana erkannten spätestens 1993 klar und deutlich, daß die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahre 1961, sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964. Ob sie selbst diesen Sachverhalt erkenntnistheoretisch in aller Deutlichkeit realisierten, ist ergebnisorientiert ein nebensächlicher Aspekt. Fazit: Die extrem präzisen Voraussagen zur versuchsinterpretierten Top-Quark-Masse und zur versuchsinterpretierten Higgs-Boson-Masse waren zu keinem Zeitpunkt unbestimmt und anders als die offizielle Aussage der SM-Vertreter bereits im ursprünglichen »Formalismus« enthalten. Die experimentelle Bestätigung der Higgs- und Top-Quark-Masse, gemäß indirekter Detektion im Rahmen der Zerfallskanalanalyse war (und ist) effektiver, aktiver Bestandteil der Zirkelschlussdynamik. Inwieweit jüngere Wissenschaftler, die im SM-Projekt involviert sind, selbständig sehen und verstehen können, was sich hier abgespielt hat und sich demnächst abspielen soll, ist schwer zu sagen, da diese schon als Schüler mit Quarks-Märchen und artverwandten baren SM-Unsinn infiltriert wurden. Die ältere Generation sollte sich jedoch schämen. Und wenn das bisher "Skizzierte" nicht ausreicht um Scham zu empfinden, dann helfen die weiteren Ausführungen in diesem Kapitel und im Standardmodell-Kapitel. Erst einmal soweit zum etwas anderen Interessenkonflikt.
Das aus Sicht der Elementarkörpertheorie Kuriose an obigen Ausführungen ist die Tatsache, daß die Ergebnisse für die Higgs-Bosonen-Masse von D. E. Kahana und S. H. Kahana (nahezu) denkmodellunabhängig sind. Denn masse-radius-gekoppelt kommt man ohne freie Parameter und ohne "theoretische Ausweichmöglichkeit" formal analytisch bei der elementarkörper-phänomenologisch begründeten (starken) Proton-Antiproton-Wechselwirkung gemäß wobei für massegleiche Wechselwirkungspartner m = mA = mB sich die Gleichungen reduzieren m = mp = 1,672621898e-27 kg : (Anti-)Protonenmasse α = 0,0072973525664 zu ∆E( p+, p- ) = 257,15410429801 GeV ∆m( p+, p- ) = 4,584188259456e-25 [kg] [2q0q0] (∆m( p+, p- ) / 2) = 128,57705215 GeV/c² mH(0) ~ 2,228e-25 kg ~ 125 GeV/c² (∆m( p+, p- ) / 2) / mH(0) ~ 1,02861642
Das bedeutet, daß mit einem "Fehler" ~ (+) 2,9%, bezogen auf die am LHC* "detektierte" Higgs-Bosonen-Masse, respektive die von D. E. Kahana und S. H. Kahana theoretisch berechnete Masse, die Elementarkörpertheorie ein Ereignis voraussagt, welches im SM nur als theoretisch vorbestimmtes Zirkelschluss-Ergebnis existiert. LHC*, die sehr "präzise" Higgs-Boson-Masse-Angabe "verblüfft", wenn man die detektorspezifische Messungenauigkeit von ~ 5% berücksichtigt. Es drängt sich (für Außenstehende) durchaus erst einmal der Verdacht auf, daß das Elementarkörper-Ergebnis konstruiert das LHC-Ergebnis bestätigen möchte. Doch das ist auf Grund der Phänomenologie und der daraus resultierenden masse-radius-gekoppelten Gleichungen unmöglich, die zur Erinnerung, gleichfalls sowohl Grundzustandsenergien, Neutronen- und Pionenmassen, ausschließlich in Abhängigkeit der Wechselwirkungsmassen mA und mB, in sehr guter Übereinstimmung mit experimentellen Ergebnissen, formal analytisch exakt berechnen. Die Antwort auf die Frage, wie das hier möglich ist, ist viel einfacher als gedacht. So wie im Rahmen der Elementarkörpertheorie sich exakt und eindeutig u.a. der Protonenradius, Grundzustandsenergien (siehe die Kapitel Wasserstoffatom & allgemein Ladungswechselwirkungen und Ladungsabhängige Materiebildung) masse-radius-gekoppelt berechnen lassen, so lassen sich auch gleichfalls exakte Ergebnisse für die (starke) Proton-Antiproton-Wechselwirkung [E2q0q0],[2q0q0] konsistent angeben. Die verwendete Gleichung ist ausschließlich von der [Anti-]Protonen-Masse abhängig! Zur Erinnerung:
Die mögliche Variation ergibt sich aus der Ladungs-Erhaltung. Ist die Wechselwirkung im Teilchenendstadium elastisch, so müssen aus der Proton-Antiproton-Wechselwirkung zwei Wechselwirkungsteilchen entstehen. Diese besitzen die Ladungsmöglichkeit (0)(0) oder (-1)(+1) und die "Masse" (∆m( p+, p- ) / 2) / mH ~ 1,02861642 . Ist die Wechselwirkung inelastisch, so entsteht ausschließlich ein Wechselwirkungsteilchen mit der Ladungsmöglichkeit (0) und der Masse m = 4,58418826e-25 [kg] . Hier kommt u.a. die Frage auf, ob das Massehäufchen, welches als "Higgs-Boson" deklariert wird, wirklich neutral ist. Oder ist die Ladungsneutralität nur ein SM-theoriegewünschtes Ergebnis. Die theoriebeladenen, postulierten SM-Zerfallskanalereignisse liefern kein objektives Ladungs-Ergebnis für das nicht detektierbare "Higgs-Boson".
...ausführlichere, allgemeinere Betrachtungen zu Wechselwirkungsereignissen
Der phänomenologisch begründete Elementarkörper-Wechselwirkungs-basierende, unstrittige Aspekt zum Higgs-Boson Es war - und ist nach wie vor - kein primäres Ziel der Elementarkörpertheorie zeitinstabile Materie kreieren/beschreiben zu können, dennoch ...
Die ladungsabhängige [q0]Proton-[q0]Antiproton-Wechselwirkung liefert primär mit ~ 257 GeV gemäß allgemeiner Gleichungen: [E2q0q0],[2q0q0], die wohl an Einfachheit nicht zu überbieten sind, genügend Materiebildungs-Energie um theoretisch* alle "bekannten" ((ultra-)kurzlebigen) Massehäufchen (Top-Quark, W±, Z(0), ...) und exemplarisch zwei neutrale Higgs-Bosonen zu generieren. * zu den theoretischen Möglichkeiten folgen weiter unten die entsprechenden Ausführungen zu Kaskadenereignissen der 2. und 3.Generation.
q0-q0 ( = "starke") Proton-Antiproton-Wechselwirkung m = mp = 1,672621898e-27 kg : (Anti-)Protonenmasse α = 0,0072973525664 ∆E( p+, p- ) = 257,15410429801 GeV [E2q0q0] ∆m( p+, p- ) = 4,58418825945573e-25 [kg] [2q0q0]
Aus Ladungserhaltungsgründen wäre auch nur ein neutrales Teilchen ( nennen wir es gemäß etablierten infantilen Stils des SM kurz Max(0) ) als Resultat der [q0]Proton-[q0]Antiproton-Wechselwirkung denkbar. p+ + p- ► Max(0) Max(0) hätte eine Masse von ~ 4,58e-25 kg.
Jedoch scheint sich Niemand der Standardmodell-Physik-Vertreter realitätsnah die Frage zu stellen, wie, anders als bei der "ladungserhaltenden" Proton-Antiproton Wechselwirkung, aus einer Kollision von zwei gleich geladenen Teilchen primär ein neutrales Teilchen entstehen soll? In einer naheliegend "naiven" Betrachtung muß die Proton-Proton-Kollision gemäß Ladungserhaltung in der Ladungsbilanz neben dem neutralen Higgs-Boson mindestens zwei positiv geladene "Objekte" bis zum "bitteren" Versuchsende bereithalten. Im einfachsten Fall agierten die Protonen lediglich als Energietransporteure und sind letztendlich bezüglich ihrer Energiefracht nur um den Beitrag der Higgs-Boson-Energie (~ 125 GeV) energiereduziert.
[ Ebeschleuniger(p+, p-) ]/c² + p+ + p+ ► p+ + p+ + H(0) + [ Ebeschleuniger(p+, p+) - E(H(0)) ]/c²
Wie sich dann die "Restenergie" [ Ebeschleuniger(p+, p+) - E( H(0)) ] erst einmal primär auf (Ruhe-)Massen und "Impulse" diverser "Massehäufchen" verteilt, steht in den Sternen. Das weitere sekundäre, tertiäre,... "Kaskadenereignisse" alles mögliche Niederenergetische hervorbringen können, dürfte gemäß Ladungsabhängiger Materiebildung leicht verständlich sein. Nochmals: Es ist phänomenologisch alles andere als trivial, daß zwei elektrisch gleich geladene, postuliert inelastisch wechselwirkende Objekte primär ein neutrales Objekt generieren (sollen). Welches "natürliche" Minimalprinzip soll denn hier "zur Stelle" sein? Des Weiteren: Der von der Standardphysik postulierte Abschirmeffekt der elektrischen Ladung mittels "Vakuumpolarisation" ist stark diskussionswürdig, da er die Ladungskonstanz, respektive Ladungserhaltung "relativiert". Darüber hinaus ist die Vakuumpolarisation als "geistiges Kind der leptonischen" Ladungsdefinition der QED nicht konsistent mit der Quarks-basierenden der QCD. "QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] Die Inkonsistenz der postulierten Betrachtungen erkennt man exemplarisch auch daran, daß der "leptonische" Spin und die elektrische Ladung des postuliert strukturlosen Elektrons betragsmäßig der elektrischen Ladung und dem Spin des postuliert asymmetrisch quarksfragmentierten Protons entsprechen. Darüber hinaus liefern Quarks keine (ausreichenden) Spinbeiträge zum Protonenspin (später mehr dazu). Es scheint hier seitens der herrschenden Physik der Überblick verloren gegangen zu sein, was wie und warum mit welchen Theorie-Objekten konstruiert wurde. Somit ist es alles andere als trivial, daß die Proton-Proton-"Coulomb-Abstoßung" "überwunden" wird, sofern man sich von den widersprüchlichen, inkonsistenten "eichsymmetrischen" (es darf gelacht werden) SM-Ansätzen verabschiedet. Da die Kombination aus mathematischen Möglichkeiten und Fantasie (u.a. postuliert Virtuelles) im Rahmen des SM mit freien Parametern, variablen Kopplungen und beliebiger Substrukturierung samt neuer Quantenzahlen Alles und Nichts generieren kann, ist somit auch die teilchenbeschleuniger-basierende Higgs-Boson-"Erzeugung" und der Higgs-Mechanismus - wie gezeigt wird, aus erkenntnistheoretischer Sicht eine willkürliche "Nullnummer". Versuchen wir das Beste daraus zu machen
Das phänomenologisch begründete Mäxchen Wir haben also eine aus mehrfacher Sicht teils widersprüchliche, teils interessante Situation vorliegen. Ja es könnten im Teilchenbeschleuniger Massehäufchen mit ~ 125 GeV/c² kurzzeitig generiert werden, ob Ring- oder Linearbeschleuniger ist egal, solange eine adäquate Schwerpunkt-Energie erreicht wird, die mit ~ 257 GeV deutlich kleiner ist, als das "Energiefenster" des TeV-LHC-Konstruktes, sofern man denn Protonen und Antiprotonen statt Protonen mit Protonen zur Kollision bringen würde. Nur welchen Sinn sollte dieser Versuch machen? Das Higgs-Boson ist zu nichts nütze, sieht man mal von den konstruierten Problemen masseloser »Eichtheorien« ab, die irgendwie an realphysikalisch vorhandene Masse ankoppeln müssen. Ein sinnvoller Aspekt wäre die mögliche Detektion des Max(0) , als Sargnagel für das SM und ... dann gibt es noch etwas »Anderes« zu bedenken. Die 257-GeV-Proton-Antiproton-Kollision könnte auch zwei »geladene Higgs-Bosonen« H± hervorbringen. Wobei der Name Higgs-Boson dann (SM-)inhaltlich falsch und im Rahmen der Elementarkörpertheorie für einen "massehalben Max" deplaziert wäre. Wie steht's mit: Die q0-Proton-q0-Antiproton-Wechselwirkung führt zu zwei elektrisch unterschiedlich geladenen Mäxchen, da werden dann womöglich die Steilchen der SUSY noch ganz verrückt. Oder wären generell Mäxchen verboten, weil die amerikanisierte Teilchenphysik keine Umlaute "kennt"? Wir werden sehen. Mäxchen wäre eine weitere "schöne" Ausnahme nach Eigenvalues, Bremsstrahlung und kindergarten.
Im Folgenden wird Elementarkörpertheorie basierend die Proton-Antiproton-Wechselwirkung energetisch "durchgespielt". Wie bereits erwähnt, Grundlagen siehe das Kapitel Ladungsabhängige Materiebildung.
Der kleinste (gemeinsame) Nenner für das SM und die Elementarkörpertheorie Lassen wir mal an dieser Stelle die Frage unbeantwortet, inwieweit die vom SM benötigten massetragenden Eichbosonen (W±, Z(0)) und das (neutrale) Higgs-Boson H(0) außerhalb des SM irgendeine Relevanz besitzen, ausser das sie energetische Möglichkeiten der Proton-Antiproton-Wechselwirkungen darstellen. Wobei hier zu berücksichtigen ist, daß die Frage ungeklärt bleibt, ob Proton und Antiproton additiv in der Massebilanz ergänzt werden (müssen). Im additiven Fall folgt: p+ + p- ► 2 H(0) + 8,4188259456e-27 [kg] + 2 · (1,672621898e-27 [kg] ) dann würden insgesamt ~ 1,176407e-26 [kg], respektive 6,6 GeV für weitere instabile Teilchen oder/und kinetische Energie zur Verfügung stehen. Die Auswahl hängt offensichtlich von der Ladungserhaltung ab. Inwieweit "Impulserhaltung" gewährleistet ist, lässt sich pauschal in keinem Fall beantworten, da die inelastischen masse-radius-gekoppelten Wechselwirkungen zu diversen temporären (zeitinstabilen) Möglichkeiten führen, die sich durch die assoziierten Radius-Masse-Verhältnisse definieren. Hier erkennt man qualitativ das Dilemma der beschleuniger-generierten Teilchen. Zwischenzustände sind aus Sicht einer fälschlicherweise nur massekoppelten Energie energieerhaltungsverletzend. Daraus resultieren dann wieder die beliebten Geisterteilchen (Neutrinos) für eine masseadäquate Energiebilanz. Masse-Radius-gekoppelt werden keine Neutrinos "benötigt". Masse-abhängige Energie hat sich in radius-abhängige Energie gewandelt.
Weitere Betrachtungen Insgesamt stellt sich epistemologisch die Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Hier ist zu bemerken, daß ~ 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also - praktisch gesehen - selbst im Rahmen des Standardmodells der Teilchenphysik "voraussageunspezifisch" und "massegebend" extrem ineffizient. Theoretisch ist die mickrige "1% - Situation" noch katastrophaler, denn das Higgs-Feld, der Higgs-Mechanismus oder was es sonst noch so an semantischen Higgs-Möglichkeiten gibt, soll allen "Teilchen" und auch dem Higgs-Boson selbst Masse "geben". Analytisch, rational logisch denkend erwartet man mit der Aussage "Masse geben", daß es formale Zusammenhänge gibt, die es "erlauben" qualitativ und quantitativ theoretische Teilchenmassen in Übereinstimmung mit gemessenen Teilchenmassen berechnen zu können. Das ist aber in keinem Fall, ausgehend von Higgs-Mechanismus, möglich !!! Mit freien Parametern bestückte Gleichungen anzuschreiben und dann zu behaupten, diese Gleichungen würden "Masse geben" ist realphysikalisch nichts weiter als eine "Luftnummer". In Anbetracht der "1% - Situation" wird daraus - interdisziplinär gesehen - eine Lachnummer. Wer lässt sich auf solch einen Quatsch ein? Warum lässt sich jemand auf solchen Quatsch ein? Warum gibt es kaum Kritiker? Haben alle die Hosen voll, weil sie in Furcht vor dem Formalismus lieber den Mund halten, statt sich konkret mit den mathematischen Konstrukten zu beschäftigen? Was bleibt denn von den phänomenologisch unbegründeten "axiomatischen" Fantasiekonstrukten ausser Willkür und Beliebigkeit? Wie man so schön umgangssprachlich sagt: "Butter bei die Fische". Standardmodell-Physiker sollten in Anbetracht der Realsituation kleinlaut, besser noch stumm, erst einmal ihre "Hausaufgaben" machen, bevor sie mit leeren Versprechungen umherziehen.
Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. "Praktisch" braucht es mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht direkt nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen, nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß als "Nachweis" postuliert wird. Ohne Übertreibung ist offensichtlich die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee in einer - rational logisch erfassbaren - unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »Fantasie-Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt" wird. Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. In Anbetracht der dokumentierten "Schizophrenie" wäre es vielleicht keine schlechte Idee, die "Macher" und "Entscheider" neurologisch untersuchen zu lassen. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, dreist-frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
... mit den Worten Theodor Fontanes: »Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«
Was ist und was darf sein Phänomenologisch besitzen die im Teilchenbeschleuniger "erzeugten" Teilchen, ausser zeitstabiles Elektron, Proton und Photon (als masseloser Zustand des energetisch äquivalenten Elementarkörpers) keine materiebildende Relevanz. Überflüssig zu erwähnen, daß Elektronen, Protonen und Photonen omnipräsent sind. Ihr "Vorkommen" als "Beschleunigerergebnisse" sind also nicht sonderlich überraschend.
Die Proton-(Anti-)Proton-Wechselwirkung erzeugt primär mit ~ 257 GeV die größte Materiebildungsenergie (diese entspricht phänomenologisch der Schwerpunktenergie der Beschleuniger). Im Hinblick auf den von der theoretischen Systemphysik "errechneten" Vakuum-Energie-Wert von ~ 246 GeV ein interessantes Ergebnis. Somit lassen sich theoretisch Top-Quark-, Higgs-Bosonen-, W- und Z-Bosonen-Masse sowie alle weiteren weniger energetischen "Masse-Möglichkeiten" generieren. Insgesamt gilt jedoch für alle denkbaren Wechselwirkungskonstellationen, die beschleunigertypisch zu (ultra-)kurzlebigen "Massehäufchen" führen, daß der Sinn und Zweck dieser Vorhaben sich keiner ernsthaften Betrachtung erschließt, sofern man auf der Suche nach fundamentalen Zusammenhängen ist. Die wirklich interessanten (erkenntnistheoretisch wertvollen) phänomenologisch begründeten Wechselwirkungen resultieren aus der Proton-Elektron-Konstellation, die sowohl die Grundzustandsenergie des Wasserstoffatoms (Ionisierungsenergie), sowie die Massenberechnung des Neutrons ermöglicht. "Natürlich" ist in dem Zusammenhang auch bemerkenswert, daß von den zeitinstabilen Möglichkeiten Pionen(-Massen) "bevorzugt" entstehen.
» Details der Untersuchungsergebnisse « Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Die
Definition der Masse eines Teilchens bezieht sich im Rahmen des
Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre
Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt,
wie auch die Gravitationswechselwirkung die im Standardmodell nicht
beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert
sich im Propagator des Teilchens. Im
Standardmodell existieren drei Generationen von Leptonen und Quarks,
sowie vier elektroschwach und acht stark wechselwirkende Eichbosonen und
ein skalares Boson, das Higgs-Boson. Die elektromagnetische
Wechselwirkung zwischen Leptonen und dem Photon wird mittels der
Quantenelektrodynamik (QED) beschrieben. Die Theorie der starken
Wechselwirkung ist die Quantenchromodynamik (QCD). Die Teilchen, die die
starke Wechselwirkung vermitteln, sind die acht Gluonen, diese koppeln
an die Farbladung (rot, grün, blau), die von den Quarks getragen wird.
Die schwache Wechselwirkung wird mittels der W- und Z-Bosonen
vermittelt. Das Standardmodell ist eine Quantenfeldtheorie (QFT):
Teilchen und Felder sind quantisiert und werden einheitlich und
relativistisch beschrieben. Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung selbst im Internet aussuchen. Im weiteren Verlauf werden hier der formale Werdegang und die Beliebigkeit des "Verfahrens" skizziert. Das Higgs-Boson ist keine direkte Folge einer
Eichsymmetrie, vermittelt daher keine Wechselwirkung im Sinne des
Standardmodells und wird daher auch nicht als Austauschteilchen
angesehen. Das Higgs-Boson wird jedoch „benötigt“, um die
elektroschwache SU(2)x(U(1)-Symmetrie zu
brechen und so sowohl dem Z- als auch den W-Bosonen Masse zu verleihen. Auffällig ist, daß folgender Sachverhalt kaum thematisiert wird: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Es gilt generell zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im Verlauf der mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasieweünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - auch von SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische Forderung läuft ins Leere. Hintergründe: Von den im Standardmodell als fundamental angesehenen Fermionen sind die Massen der geladenen Leptonen – Elektron, Myon, Tau – nur experimentell bekannt, sie treten als freie Teilchen auf. Die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Masseneigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superpostion von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt. Quarks hingegen sind nicht isolierbar, soll heißen, nicht direkt "messbar". Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf Streuquerschnitte berechnet. Bei der Angabe der Resultate muß sorgfältig unterschieden werden, auf welchen Modellannahmen die Berechnungen beruhen und welches Renormierungsschema verwendet wurde. Die Literatur zum Thema ist entsprechend umfangreich und teilweise schwer zu vergleichen. SM-Postulat:
Wie das Elektron ist auch ein Quark von
einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und
Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die
Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise
kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in
der Umgebung eines Elektrons haben die virtuellen Gluonen in der
Umgebung eines Quarks ihre eigenen Farbladungen und können daher in
Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen
Beiträge wird im Falle der QCD die Farbladung des Quarks nicht
abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine
erklärende Phänomenologie zum antiscreening!] Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die postuliert quarks-basierenden physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Postuliert „Strukturlose“, wie das Elektron, sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "weitere 5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel". "Massetragende"
Neutrinos können als Dirac- oder Majorana-Spinoren dargestellt werden. Für
masselose Neutrinos sind diese beiden Darstellungen äquivalent. Falls
Neutrinos massive Dirac-Teilchen sind, so ist nach wie vor die totale
Leptonzahl eine Erhaltungsgröße, während die Leptonfamilienzahl durch
die Neutrinomischung verletzt wird. Letzteres gilt ebenso für
Majorana-Neutrinos, die aber zusätzlich auch die totale Leptonzahl
verletzen würden, da Majorana-Neutrinos ihre eigenen Antiteilchen sind.
Diese Leptonzahlverletzung könnte sich in einem neutrinolosen doppelten
Betazerfall zeigen. Die Beobachtung eines solchen Zerfalls wäre ein
eindeutiger Hinweis auf die Existenz von Majorana-Neutrinos. Darüber
hinaus ist die Unterscheidung von Dirac- und Majorana-Neutrinos
experimentell äußerst schwierig. Majorana-Neutrinos können kein
elektrisches oder magnetisches Dipolmoment besitzen, ebenfalls als Folge
der Tatsache, daß Majorana-Neutrinos ihre eigenen Antiteilchen sind. [Nur warum sollte man sich mit der Frage nach "massetragenden" Neutrinos und theoretischen Konstrukten a la Dirac- oder Majorana-Spinoren beschäftigen, da es eh keine Neutrinos gibt?] Willkür als Gestaltungselement: Auftretende mathematische Objekte, die den Theoretikern nicht ins Konzept passen, werden als "unphysikalisch" erklärt, sodann "weggelassen", respektive "weggeeicht" (siehe hier Goldstone-Boson oder anderenorts beispielsweise "nichtbrauchbare" Phasen der CKM-Matrix).
Unendlichkeiten werden regularisiert und sodann renormiert.
Die Verselbständigung der mathematischen Abstraktionen führt nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um Ergebnisse zu erhalten. Später mehr dazu. Die meisten Wissenschaftler, vielleicht fast alle, die sich mit Grundsatzfragen der Materiebildung und Annihilation dieser beschäftigen, haben offensichtlich verdrängt, daß Nulldimensionalität keiner Naturbeobachtung entspricht, sondern ein (abstraktes) theoretisches Konzept ist. Nur das unbeobachtete (nichtwechselwirkende) Photon hat die räumliche Dimension Null. Um das im Rahmen eines konsistenten Denkmodells „zu verstehen“ bietet sich die Elementarkörpertheorie an.
Information
als materieller
Zustand = Elementarkörper Die grundsätzliche Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das.
Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung - steht nicht im Widerspruch mit der Materie-Energie-Verkörperung. Für t = 0 handelt es sich um reine Bewegungsenergie (Photon). Für t0 = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Die Masse-Bildung ist an die zeitabhängige Radius-Vergrößerung r =r(v(t)) gekoppelt. In einfachen Worten: Aus der anfänglichen, reinen Bewegungs-Energie entstehen stetig zeitabhängige Kugeloberflächen, die als solche einen Raum aufspannen, dessen Größe ein Maß für die äquivalente Masse ist. Nach einer Viertelperiode (½π) ist der Elementarkörper voll ausgebildet (r(t) = r0 , m(t) = m0), daß bedeutet das die Expansionsgeschwindigkeit v(t) gleich Null ist.
Statischer Zustand des Elementarkörpers und (Teil-)Annihilation Phänomenologisch ist die Umwandlung von Bewegungsinformation in Rauminformation abgeschlossen. Ohne äußere Wechselwirkung bleibt der Elementarkörper nun in diesem Zustand. Wird der Elementarkörper von außen "angeregt", kommt es zu verschiedenen Wechselwirkungs-Szenarien, die je nach Energie der Wechselwirkungspartner zur Teil-Annihilation oder (Voll-)Annihilation führen. Materiebildende Teil-Annihilationen kommen in der einfachsten Form durch die Proton-Elektron-Wechselwirkung zustande (Stichworte: Rydberg-Energie, Wasserstoffspektrum). Masse-gekoppelter Raum annihiliert gemäß r(t) und m(t). "Strahlung" wird aufgenommen oder abgegeben. Bei der vollständigen Annihilation kontrahiert der Elementarkörper gemäß r(t) und m(t) wieder bis zum Ursprung und liegt sodann in Form reiner Bewegungs-Energie (Strahlung) vor. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π · r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Detaillierte Ausführungen finden sich u.a. im Kapitel: Elementarkörper. Auch wenn „Antiteilchen“ selten explizit benannt werden, gelten alle energetischen Beziehungen auch für diese.
Teilchenbeschleuniger und Materiebildungen Größere (Beschleuniger-)Energien erzeugen im Bild der Elementarkörpertheorie im Hinblick auf die mittleren Lebensdauern der (kaskadenartig) erzeugten Teilchen kaum neue "Materie-Quellen", sondern mit fortschreitender Wechselwirkungsstufe (siehe weiter unten: primäres, sekundäres, tertiäres energetisches Maximum) überwiegend Translationsenergie. Der Large Electron-Positron Collider (LEP, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN. Er erreichte Schwerpunktenergien von bis zu 209 GeV. Die Schwerpunktsenergie steht zur Verfügung, um in Anregungsenergie oder in die Masse neuer Teilchen umgewandelt zu werden. Es hätte also energetisch ein Higgs-Boson erzeugt werden können. Gemäß Elementarkörpertheorie-Gleichungen [Eq0q0] und [mq0q0] ist aber primär nur die Bildung eines neutralen π-Mesons aus der q0-Elektron-q0Positron-Wechselwirkung möglich. Was absolut gesehen nicht bedeutet, daß keine massereicheren (stets zeitinstabilen) Wechselwirkungsmassen produziert werden können. Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner. Beispiel: Primär bildet sich aus der Elektron-Positron-Wechselwirkung maximal ein π0 mit einer mittleren Lebensdauer von ca. 8,52e-17 [s]. Dieses neutrale Pion zerfällt zu fast 99% in zwei Photonen. In 1% zerfällt es wieder in ein Elektron und ein Positron sowie ein Photon. Das sekundäre energetische Maximum erreichen nur wenige neutrale Pionen. Aber erst im tertiären Maximum steht eine ausreichend große Energie zur Bildung von Higgs-Boson & Co zur Verfügung. Es kommt jedoch während der Phase des sekundären energetischen Maximums über die e-q0-Elektron-Positron-Wechselwirkung zur Bildung von geladenen Pionen. Diese haben zumindest eine deutlich längere Lebensdauer von ~ 2,6e-8 [s]. Aber auch diese müssen erst die 3.Wechselwirkungsstufe erreichen, bis sie genügend Energie für schwere Massen im Bereich von 1e-25 [kg] besitzen. Leider lassen sich hier nur grob qualitative Aussagen zu den Wechselwirkungswahrscheinlichkeiten machen, da die Phänomenologie sowie die "Geometrie der Streuung" der Teilchen, realphysikalisch betrachtet, unbekannt ist. Elementarkörpertheorie: Das energetisch effektivste Ergebnis resultiert aus der primären Proton-Antiproton-Wechselwirkung mit einer Materiebildungsenergie von ~ 257 GeV, daß entspricht einer Masse von ungefähr 4,6e-25 [kg]. [Randnotiz: Der mittels "Higgs-Mechanismus" definierte Vakuumenergiewert beträgt ungefähr 246 GeV] Höhere Schwerpunktenergien führen zwar theoretisch zur Bildung größerer Massen, doch die sehr kleinen bis ultrakurzen Lebensdauern der "Entstehungsprodukte" stehen in keinem Verhältnis zu dem energetischen Aufwand. Da Proton-Antiproton-Kollisionen derzeit nur in Ringbeschleunigern durchgeführt werden, muß hier berücksichtigt werden, daß über die Synchrotonstrahlung während der Beschleunigungsphase permanent (relativ viel) Energie abgestrahlt wird. Die jetzige "14 TeV -Phase des LHC" ist aus Sicht der Elementarkörpertheorie-Erkenntnisse deutlich überdimensioniert. Insgesamt sind Beschleuniger-Ergebnisse erkenntnistheoretisch wertlos. Siehe hierzu die Ausführungen im Kapitel Standardmodell der Teilchenphysik. Im Folgenden werden schlicht energetische Möglichkeiten aufgeführt die sich meist aus der q0-q0-Wechselwirkung ergeben. Zur Erinnerung: Das erweiterte Ladungs-Prinzip führt über die Elementarkörpertheorie basierende Wasserstoffatom bildende Proton-Elektron-Wechselwirkung hinaus. Aus dem verallgemeinerten, anschaulich-phänomenologischen Prozess folgen stringent das Neutron und Pionen als energetisch mögliche (zeitinstabile) "Teilchen". Wie gezeigt wird, kommen elektrische Ladungen innerhalb der Elementarkörpertheorie nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α "rechnerisch" vor. Elektrische Ladungen (q0 und e) definieren das Verhältnis von Masse- zu Radius-Energie. Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische (Elementar-)Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert. Hier ist natürlich zu beachten, daß alle verwendeten Größen in Zentimeter, Gramm und Sekunde richtig dimensioniert werden (müssen). "Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten. Zum einen die energetisch ruhemasse-ruheradius-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e.
f7 wurde eingeführt, um suggestiv zu verdeutlichen, daß es sich bei der [Elementarkörper-]Ladung q0 ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Grösse, die aus der elektrischen Elementarladung "entstammt". Konsequenterweise wird die Feinstrukturkonstante α Elementarkörpertheorie basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich ↑ von Gesamt-Energie (Elementarkörperladung q0 als (Funktion des) Radius-Masse-Äquivalent) und elektrischer Energie mittels der elektrischen Elementarladung e. Hier ist zu bemerken, daß quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.
Als formales Ergebnis zur Materiebildung resultieren drei Energie- und drei Masse-Gleichungen, die, wenn man so will, die Schwerpunktenergie im Beschleuniger abbilden, daß ist die Energie, die zur Materiebildung zur Verfügung steht. Gleichungs-Überblick des erweiterten Ladungsprinzips Obige näherungsfreie Gleichungen führen mittels Proton-Elektron-Wechselwirkungen zwanglos zu Wasserstoffatom, Neutron und geladenen Pionen, siehe das Kapitel Materiebildung.
Im Hinblick auf die energetischen Verhältnisse des Beschleunigers, der relativistischen bis ultrarelativistischen Teilchen, werden in den folgenden Betrachtungen meist nur q0-q0-Wechselwirkungen behandelt. Es wird verständlich, daß sich aus den phänomenologisch begründeten, masse-radius-gekoppelten Elementarkörper-Wechselwirkungen ein Quasi-Kontinuum diskreter Teilchen "erzeugen" lässt, so wie es, mehr oder weniger, im Teilchenbeschleuniger beobachtet wird. Das im Rahmen des Standardmodells der Teilchenphysik - historisch gesehen - sukzessive eine Vielzahl diverser Unterscheidungsmöglichkeiten (Theorieparameter wie Flavour-Quantenzahlen), eingeführt wurden bzw. eingeführt werden mussten, ist den theoretischen Implikationen "geschuldet". Wie inkonsistent, erkenntnistheoretisch wertlos und beliebig dies geschieht, wird im Kapitel Standardmodell ausführlich erörtert. Ein besonders "tragikomisches Ereignis" ist das Tauon. Das
Tauon (τ-Lepton) ist das schwerste der drei geladenen
Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt
~ 1777 MeV/c2 ~ 3,16779e-27 kg, die Lebenszeit ~
2,906 ± 0,010 · 10−13 s.
starke Proton-Antiproton-Wechselwirkung mp = 1,672621898e-27 kg : (Anti-)Protonenmasse α = 0,0072973525664 ∆E( p+, p- ) = 257,15410429801 GeV [E2q0q0] ∆m( p+, p- ) = 4,58418825945573e-25 [kg] [2q0q0]
Die im Folgenden exemplarisch aufgeführten Wechselwirkungsergebnisse unter e-Ladungserhaltung "rekonstruieren" vom SM postulierte zeitinstabile Teilchen. Inwieweit deren angegebene Massen korrekte Ruhemassen im Sinne der Elementarkörpertheorie abbilden, ist diskussionswürdig. Sowohl die Zerfallsbreiten als auch die Massenwerte sind stark SM-theoriebeladen. Inwieweit die "überschüssige" Wechselwirkungsenergie gleichfalls zu Massebildungen oder aber zu kinetischer Energie der entstandenen Teilchen führt, ist ungeklärt.
neutrales Higgs-Boson, SM-Annahme: mH(0) = 2,25e-25 [kg] Higgs-Bosonen-Erzeugung aus Proton-Antiproton-Wechselwirkung Einige energetisch mögliche Wechselwirkungsergebnisse unter Berücksichtigung der e-Ladungserhaltung: p+ + p- ► 2 H(0) + 8,4188259456e-27 [kg] ∆m( p+, p- ) / 2 = 2,2920941297279e-25 [kg] (∆m( p+, p- ) / 2) / mH(0) ~ 1,02861642
Higgs- und Z-Boson-Erzeugung aus Proton-Antiproton-Wechselwirkung p+ + p- ► H(0) + Z(0) + 7,08621259456e-26 [kg] Z-Boson m(Z0) = 1,625567e-25 kg 91187,6 ±2,1 MeV
W± - und Z-Boson-Erzeugung aus Proton-Antiproton-Wechselwirkung p+ + p- ► Z(0) + W- + W+ + 9,2635711456e-27 [kg] W-Bosonen W+ W- m(W±) = 1,432992774e-25 kg 80385 ±15 MeV
"Energetisch denkbar" ist auch die "Produktion" eines neutralen Higgs-Bosons mit der Masse von ~ 125 GeV/c² und zwei geladenen Bosonen mit der Einzelmasse mB± von ~ 66 GeV. p+ + p- ► H(0) + B- + B+
usw.
Ohne die diskreten Wechselwirkungsmöglichkeiten der Proton-Antiproton-Konstellation hier weiter auszuführen, sollte klar werden, wie das SM-alternative Elementarkörpermodell ergebnisorientiert "SM-analog" funktioniert. Wobei noch berücksichtigt werden muß, daß in niederenergetischen Bereichen gemäß e-q0 und e-e-Wechselwirkungen an den "energetischen Rändern" der Teilchen-Kollisionen quasikontinuierlich noch einiges an SM-bekannten "Zeug" entsteht.
Elektron-Positron-Wechselwirkungen Verlassen wir "bildlich" den Hadronenbeschleuniger und schauen uns den Elektron-Positron-Linearbschleuniger an. Es wird sofort deutlich, daß aus energetischen Gründen aus einer primären Elektron-Positron-Wechselwirkung weder massetragende Eichbosonen noch das Higgs-Boson resultieren können.
q0-q0-Elektron-Positron m = me± = 9,10938356e-31 kg : Elektronenmasse - Positronenmasse primäres energetisches Maximum (entspricht Schwerpunktenergie zur zeitinstabilen Materiebildung) ∆E( e+, e- ) = 140,05050232093 MeV [E2q0q0] ∆m( e+, e- ) = 2,496626955355e-28 [kg] [2q0q0] 2,4061764315e-28 [kg] mπ0 sekundäres energetisches Maximum 6,842555386046422e-26 [kg] tertiäres energetisches Maximum 1,875352827970064e-23 [kg]
(additive) Wechselwirkung Es kommt während der Phase des sekundären energetischen Maximums über die e-q0-Elektron-Positron-Wechselwirkung zur Bildung von geladenen Pionen.
∆m = 2,49664361973507e-28 [kg] mπ± = 2,48806443231e-28 [kg]
(additive) Wechselwirkung Die tertiäre Phase liefert über die e-e-Elektron-Positron-Wechselwirkung, wie die primäre q0-q0-Wechselwirkung ungeladene Pionen mπ0 mit mA = mB = 1,875352827970064e-23 [kg] ∆m = 2,496660193432e-28 [kg] Auch für die Positron-Elektron-Wechselwirkung gilt unter Berücksichtigung aller möglichen Mischwechselwirkungen (generierte Massenwerte, respektive Teilchen, der verschiedenen Phasen), daß in niederenergetischen Bereichen gemäß e-q0 und e-e-Wechselwirkungen, an den "energetischen Rändern" der Teilchen-Kollisionen quasikontinuierlich noch einiges an SM-bekannten "Zeug" entsteht. Ohne das hier explizit auszuführen, wird deutlich, daß die Elektron-Positron-Kollision im Vergleich zur Proton-Antiproton-Kollision deutlich uneffektiver ist, wenn es darum geht "massereichere Zeitmomente" zu kreieren.
Insgesamt gilt für alle denkbaren Wechselwirkungskonstellationen, die beschleunigertypisch zu zeitinstabilen "Massehäufchen" führen, daß der Sinn und Zweck dieser Vorhaben sich keiner ernsthaften Betrachtung erschließt, sofern man auf der Suche nach fundamentalen Zusammenhängen ist. Die Elementarkörpertheorie zeigt auf, daß ein diskretes, quasikontinuierliches Massenspektrum erzeugt wird, daß mit einfachen formalen Mitteln der ladungsabhängigen Materiebildung darstellbar ist. Die wirklich interessanten (erkenntnistheoretisch wertvollen) Wechselwirkungen resultieren jedoch aus der Proton-Elektron-Konstellation, die sowohl die Grundzustandsenergie des Wasserstoffatoms (Ionisierungsenergie), sowie die Massenberechnung des Neutrons ermöglicht. "Natürlich" ist in dem Zusammenhang auch bemerkenswert, daß von den zeitinstabilen Möglichkeiten Pionen(-Massen) "bevorzugt" entstehen. |
Zur Erinnerung
Formales Ergebnis zur Grundzustands-Energie zweier beliebiger e-Ladungsträger mit den Massen mA und mB
Die Grundzustands-Energie ∆Eee (Rydberg-Energie ERy) ergibt sich gemäß Gleichung [Eee]. Es wurden zur Berechnung folgende Werte verwendet: mA = me = 9,10938356e-31 kg : Elektronenmasse mB = mp = 1,672621898e-27 kg : Protonenmasse c: 2,99792458e+08 m/s α: 0,0072973525664 ► 2,6626031711955e-5 : ( 1- √( 1 - α² ) ) 0,99945567942486 : 1/(1 + me/mp)
Rydberg-Energie ∆Eee = 2,1787147814124e-18 J ~ 13,5984681909 eV ∆m = 2,4241471236633e-35 kg Vergleich mit experimentell bestimmter Rydberg-Energie ERy(exp)= 13,59843400* eV ∆Eee / ERy(exp) ~ 1,00000251433
* Die Literaturangaben zum Grundzustand in Hinblick auf die Ionisierungsenergie sind "etwas ungenau". Siehe exemplarisch folgende Quellen: 13.598434005136 eV http://physics.nist.gov/PhysRefData/ASD/ionEnergy.html , ..., (falls nicht voreingestellt wähle INFORMATION Ground States & Ionization Energies) Spectra: wähle H für Hydrogen... 13,598434005136 eV
|
Aus der e-Proton-q0-Elektron-Wechselwirkung entsteht das Neutron. Die Gesamt-Masse des Neutrons mn ergibt sich zu: mn = mp + me + ∆m ( : Gleichung [mq0e] ) [mn1]
Es wurden zur Berechnung folgende Werte verwendet: mA = me = 9,10938356e-31 kg : Elektronenmasse q0mA = (4/α) · me = 4,99325391071e-28 kg mB = mp = 1,672621898e-27 kg : Protonenmasse c: 2,99792458e+08 m/s α: 0,0072973525664 ► 0,00365535710097 : ( 1- √( 1 - α ) ) 0,77010243592 : 1/(1 + q0me/mp) ∆m = 1,405600680072e-30 kg ∆Eee = 1,263290890450e-13 J ~ 0,78848416 MeV mn(e-Proton-s-Elektron-Wechselwirkung) = mp + me + ∆m = 1,6749384370361e-27 kg Vergleich mit experimentell bestimmter Neutronenmasse mn(exp) (1,674927351e-27 kg) mn(e-Proton-s-Elektron-Wechselwirkung) / mn(exp) ~ 1,000006619 Unter Berücksichtigung des phänomenologisch begründeten, näherungsfreien Lösungsweges, in formal-analytischer Gestalt der Gleichung(en) : mn = mp + me + ∆m [mq0e], ist das "theoretische" Ergebnis der Elementarkörpertheorie basierenden Neutronenmasse-Berechnung gemäß ladungsabhängiger Proton-Elektron-Wechselwirkung als sensationell zu bezeichnen. Weitere Details zum Neutron finden sich im gleichnamigen Kapitel. |
Aus der Proton-Elektron-q0-q0-Wechselwirkung ergeben sich zwanglos 2 Pionen.
Es wurden zur Berechnung folgende Werte verwendet: mA = me = 9,10938356e-31 kg : Elektronenmasse q0mA = (4/α) · me = 4,99325391071e-28 kg mB = mp = 1,672621898e-27 kg : Protonenmasse q0mB = (4/α) · mp = 9,16837651891e-25 kg c: 2,99792458e+08 m/s α: 0,0072973525664 ► 0,999455679425 : 1/(1 + q0me/q0mp)
Pionen: ∆m = 4,99053598e-28 kg siehe [mq0q0] ~ 2mπ (Ladungen +/- 1e) mπ(exp) * = 2,48806443e-28 kg (∆m/2) / mπ(exp) ~ 1,00289525 *Inwieweit die stark theoriebeladene experimentelle Teilchenphysik überhaupt ruhende Pionenmassen hinreichend genau bestimmen kann, wird stark bezweifelt. Das neutrale Pion ist auf Grund der von den geladenen Pionen unterschiedlichen Masse nur im Rahmen der SM-Forderung ein „Pion“. Die Abstraktion, das Teilchen mit unterschiedlichen Massen gemäß postulierter QM-Überlagerung (Stichwort: Quarkonia) „gleich“ sind, ist innerhalb des SM eine der vielen Beliebigkeitsthesen (siehe u.a. SM-Quarkmassen-Unbestimmtheit im Prozent-Fehler-Bereich) und außerhalb des mathematischen Formalismus des SM unbegründet. Interessant ist noch zu erwähnen, daß in "guter" Näherung gilt: Elektronenmasse me = ½ α mπ(me) [memπ] . mπ(me) = 2,496626955355e-28 [kg] [memπ] ~ + 0,34% bezogen auf mπ± und ~ + 3,76% auf mπ0 mπ± = 2,48806443231e-28 [kg] mπ0 = 2,4061764315e-28 [kg] Weitere Details zu Pionen, insbesondere zu dem "Kaskadenzerfall": Pion►Myon►Elektron, finden sich im Kapitel Pionen. Um ein logisch argumentiertes Ergebnis vorweg zu nehmen: Pion, Myon und Elektron sind Elementarkörper. Deren Umwandlungen lassen sich energetisch begründet ohne Neutrinos plausibel erklären. Der Zerfall des SM-postuliert mesonischen Pions in ein leptonisches Myon ruft die Schwache Wechselwirkung auf den Plan, die jedoch außerhalb des SM keine realphysikalische Relevanz besitzt.
Fazit: Oben benannte Gleichungen zur Materiebildung bilden primär drei diskrete formale Möglichkeiten ab. Es gibt keinen weiteren Interpretationsspielraum gemäß phänomenologisch begründeten theoretischem Denkmodell-Ansatzes. Für die konkreten Proton-Elektron-Berechnungen werden initial nur die Protonenmasse (für mB), Elektronenmasse (für mA) und die Feinstrukturkonstante benötigt. Es ist leicht verständlich, daß aus den energetischen Möglichkeiten Kaskaden (...2., 3., ...n-te Misch-Generation(en)) von weiteren diskreten Energien, respektive diskreten Teilchen folgen können. Geladene Pionen können exemplarisch (folgend) mit Pionen, Elektronen, Positronen oder Protonen, Antiprotonen, wechselwirken usw. Die daraus resultierenden geladenen und ungeladenen (Energie-)Körper können "analog" der primären Proton-Elektron-Wechselwirkungen gleichfalls weitere "Teilchen" produzieren. Genauso gut, können aber auch neue Teilchen der n-ten Generation beispielsweise mit Elektron oder Proton wechselwirken. Rückblickend ohne "besondere Motivation" folgt also aus der Elementarkörper basierenden Ladungserweiterung ein "diskreter Teilchenzoo". Der Riesenunterschied zum Standardmodell der Teilchenphysik ist offensichtlich. Die Massen(-Grenzen) dieser "neuen" Teilchen lassen sich aus den materiebildenden Gleichungen näherungsfrei und einfachst berechnen. |
Standardmodell und Higgs-Mechanismus
Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.
Einige "SM-Postulate" Die
Definition der Masse eines Teilchens bezieht sich im Rahmen des
Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre
Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt,
wie auch die Gravitationswechselwirkung die im Standardmodell nicht
beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert
sich im Propagator des Teilchens. Die Eichbosonen sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert. Ein „erkenntnistheoretisch wertiges“ Problem ist in diesem Zusammenhang, die meßtechnisch begründete Tatsache, daß es einen fundamentalen Unterschied zwischen dem stabilen Photon, welches losgelöst vom SM real (masselos) direkt nachweisbar existiert, und den mathematisch generierten Photon als SM-postulierten Mischzustand (Stichwort Weinbergwinkel) gibt, sowie, daß es einen fundamentalen Unterschied zwischen dem realen Photon und letztendlich massegewünschten instabilen Eichbosonen (W±, Z0) sowie dem instabilen Higgs-Boson H(0) und den 8 postulierten, selbstwechselwirkenden - vom SM gewünscht masselosen - Gluonen gibt. "Gewünscht" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - auch von SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische Forderung läuft ins Leere. Das es mathematische Auswege geben wird, dürfte als sicher gelten und wenn es in nächster Konsequenz Supersymmetrie (SUSY) oder eine GUT (Grand Unified Theory) "richten" muß. Interdisziplinär betrachtet: Interessant ist der grundsätzliche Sprachgebrauch mathematikgläubiger SM-Physiker: ..."In der elektromagnetischen Theorie hat die Forderung nach lokaler Eichinvarianz die Existenz eines masseslosen Spin-1 Teilchens, des Photons, zur Folge. Auf ähnliche Weise führt die Forderung nach lokaler »SUSY-Eichinvarianz« zur Existenz eines masselosen Spin-2 Teilchens, des Gravitons. Diese Theorie ist zwar nicht renormierbar, gibt aber möglicherweise einen Hinweis darauf, wie Gravitation mit der Beschreibung der übrigen Wechselwirkungen vereinigt werden kann."... Also die Natur hat gefälligst Austauschteilchen gemäß theoretischer Vorbestimmungen zu generieren. Theoriebeladene Experimente dienen ausschließlich der Bestätigung theoretischer Vorgaben. Dieses dekadente und zugleich dummdreiste Gehabe "Theoretischer Grundlagenphysiker" erinnert stark an Master-Servant-Scenarios. Hier bekommt die Abkürzung SM eine weitere Bedeutung.
Randnotizen zu möglichen, nächsten Stufen der (mathematischen) Beliebigkeiten Während es im Rahmen des SM keine Erklärung dafür gibt, weshalb das Higgs-Potential einen nichtverschwindenden Vakuumerwartungswert (VEV) hat, oder anders gesagt, weshalb es die typische Minimaxform aufweisen sollte, die für die Generierung der Eichbosonenmassen verantwortlich ist, ohne die Eichinvarianz zu verletzen, so wird im Rahmen von SUSY-GUT-Konstrukten das negative Massenquadrat des typischen Minimax-Higgs-Potentials durch Strahlungskorrekturen generiert, falls die Top-Quark-Masse in der „richtigen“ Größenordnung von 100 – 200 GeV liegt. Als Grundlage supersymmetrischer Theorien dient eine Erweiterung der Poincaré- Algebra. Darauf folgt die Einführung des Superraums und der verschiedenen Sorten von Superfeldern, mit deren Hilfe sich die allgemeine supersymmetrische Lagrange-Dichte konstruieren lässt.
"Zur
Erinnerung": Die QED beschreibt die Wechselwirkungen zwischen
Fermionen und Photon. Diese Wechselwirkungen erhalten die Chiralität.
Ein linkshändiges Fermion bleibt linkshändig, wenn es ein Photon
emittiert oder absorbiert, ein rechtshändiges Fermion bleibt ein
rechtshändiges. Der kinetische Term erhält auch die Chiralität. Da
die Emission oder Absorption eines Photons die Chiralität des Fermions
nicht ändern kann, hat dies zur Folge, daß jegliche
Strahlungskorrektur zur Fermionmasse bis in alle Ordnungen der Störungstheorie
verschwinden muß, wenn die Fermionmasse gleich null ist. Die
Schleifenintegrale, die in die Berechnungen der Strahlungskorrekturen
eingehen, sind divergent. Die chirale Symmetrie „schützt“
Fermionmassen vor großen Strahlungskorrekturen. In analoger Weise
„schützt“ die Eichinvarianz das Photon davor, eine Masse zu
erhalten. In der QED ist die führende Divergenz der Fermionen in allen
Größen logarithmisch. Die
Eichgruppe des Standardmodells SU(3)C x SU(2)W x
U(1)Y kann nur masselose Fermionen beschreiben. C steht für
Farbe (die Ladung der starken Wechselwirkung), W für Schwache
Wechselwirkung und Y für Hyperladung. Die elektroschwache
Yang-Mills-Theorie wird durch SU(2)W x U(1)Y
beschrieben, die SU(2)W enthält
drei Eichbosonen. Die zunächst masselosen Fermionen können durch ihre
Helizität charakterisiert werden. Rechtshändige Fermion-Zustände
haben Helizität +½, linkshändige Fermionen den Wert -½. Nur bei
masselosen Teilchen ist die Helizität eine lorentzinvariante Größe.
Es gibt Erzeugungs- und Vernichtungsoperatoren für rechts- und linkshändige
Teilchen und für die jeweilige Händigkeit von Antiteilchen. Die Ladung
des rechtshändigen Antiteilchens ist entgegengesetzt der Ladung des
linkshändigen Teilchens. Es ist eine zentrale Eigenschaft aller
Fermionen des SM, daß sie chiral
sind. Definition: Ein Fermion ist chiral, wenn die rechts- und linkshändigen
Teilchen-Zustände nicht dieselben Ladungen tragen. Chirale Fermionen
sind masselose Fermionen. Durch spontane Symmetriebrechung erhalten
Fermionen Masse und SU(3)C x SU(2)W x U(1)Y
reduziert sich auf die Eichgruppe SU(3)C x U(1)em ,
die bei niedrigen Energien beobachtet wird. Im Rahmen des Standardmodells der Teilchenphysik (SM) gibt es jedoch quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM. Schenken wir uns des Weiteren die Kritik zur Renormalisierung und Renormierung und betrachten an dieser Stelle nur die theorie-konstruierte Ursache: Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger schlicht nicht erfasst. Berücksichtigt man jedoch eine endliche, realphysikalisch orientierte, phänomenologische „Natur der Objekte“, lösen sich die "Unendlichkeiten" plausibel auf.
Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des "Verfahrens" skizziert werden. Folgender Sachverhalt
wird kaum thematisiert bzw. "teilweise verschwiegen": Der Higgs-Mechanismus startet
mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen
Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein
Tachyon-Feld, mathematisch definierbar, physikalisch irreal.
Um
den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um
einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das
Vorzeichen des Massenterms. Die geforderten Eigenschaften des Higgs-Feldes sind: »Higgs-Teilchen« sind Bosonen, weil nur dann eine kohärente Wellenfunktion möglich ist. Aus dem gleichen Grund müssen »Higgs-Teilchen« untereinander wechselwirken. Das Higgs-Feld ist skalar, um die Symmetrie des Vakuums zu erhalten. Im vorliegenden Fall der U(1)em- Eichtheorie muß das Feld geladen sein, um an das Photon zu koppeln. Das Higgs-Feld erfüllt die Klein-Gordon-Gleichung:
Man
postuliert, daß sich das Higgs-Feld im Grundzustand mit einem
Vakuumerwartungswert IΨ0I² = const ≠ 0 befindet.
Die Forderung eines im
Grundzustand nicht verschwindenden Erwartungswertes ist nicht trivial
und kann nur mit einer Selbstwechselwirkung des Feldes "erfüllt" werden.
Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Im Verlauf dieser mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). Es gilt jedoch zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus.
Wir sparen uns den "komplexen Mexican hat" und reduzieren die »spontane Symmetriebrechung« auf eine zweidimensionale "Anschauung": [ Graphen Vakuum-Erwartungswerte (0) v : spontane Symmetriebrechung ] in Abhängigkeit von V und f(μ)
Die vier Komponenten des Isospin-Dublett-Ansatzes "liefern" letztendlich drei Vektorbosonen mit einer longitudinalen Spinkomponente und ein skalares Higgs-Feld. Damit das Photon masselos bleibt, wird in diesem Fall der Vakuumerwartungswert (wieder) auf Null "gesetzt". Die "restlichen" Masseterme werden dann von der "neutralen" Komponente mit nichtverschwindenden Erwartungswert erzeugt. Nach (mathematischer) "Umordnung" ergibt sich die eichinvariante SU(2) x U(1) - Lagrange-Dichte mit den "gewünschten" Massentermen für das Higgs- und die Eichbosonen.
Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasieweünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß (anerkannter) Neutrinooszillationen - endliche Massen besitzen. Die theoretische Forderung läuft ins Leere, denn die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident.
Fermionen- und Quarks-Massen Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Das Neutrino muß masselos bleiben. Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. (Formale) "Ergebnisse" Die Kopplung ist proportional zur Fermionenmasse, doch für jedes Fermion ein freier Parameter Quarkmassen werden "ähnlich" erzeugt, nur daß beide Komponenten der Quark-Dubletts eine Masse erhalten.
Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. Jede Sprache, auch die deutsche Sprache, hält angesichts dieser - an Beliebigkeit, Willkür und Inkonsistenzen nur so strotzenden - ergebnislosen »Higgs-Konstruktion« Kraftausdrücke parat, die hier angebracht wären. Der Leser möge seiner Fantasie diesbezüglich freien Lauf lassen. Ist dieser Higgs-Wirrwarr wirklich ernst gemeint? Das kann doch nicht sein, oder? Dafür gab es einen Nobelpreis? Hier "reden" wir im Moment nur von der Theorie. Die Praxis sieht ähnlich düster aus. Es braucht mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein Meßereignis.
Wunsch und Wirklichkeit Die
grundsätzliche Problematik, ausgehend von historisch entstandenen
Annahmen zur »Natur der Dinge« exemplarisch zur Natur der Strahlung, die
je nach theoretischer Vorlage beispielsweise der (semi-klassischen)
Maxwellschen Elektrodynamik, der Quantenelektrodynamik oder der
„Elektroschwachen Theorie“ zuzuordnen ist,
entstammt der fixen Idee, das ein mathematischer Formalismus ohne
Ankopplung an plausible Anschauung aus sich selbst heraus die Wirklichkeit
nicht nur abbilden, sondern auch formen kann. Wie sonst sind die
mathematischen Mischkonstrukte der Elektroschwachen Theorie zu
interpretieren, die dem Photon die beobachtbare Entität bzw. Identität
rauben. Hier werden brachial Axiomatik und mathematische Objekte zur
realphysikalischen Wahrheit erklärt. Doch inwieweit axiomatisch begründete
Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz
anderen Blatt. Bei genauer Betrachtung stellt sich heraus, daß dies nicht
gelingen kann und auch nicht gelingt. Die rechenbaren Lösungen,
insbesondere der Standardmodelle, basieren allesamt auf Idealisierungen
und Näherungen. Das diese Eingriffe grundsätzlich den ursprünglichen
Formalismus zerstören bedarf aus logischer Sicht zwar keiner weiteren
Erklärung aber ist erstaunlicherweise leider Alltagsgeschäft der
Theoretischen Physik. Das mag übergeordnet solange vertretbar sein, wie
praktische Dinge trotz Näherung ihren Nutzen besitzen und keine
erkenntnistheoretischen Aspekte aufgeworfen werden. Wobei hier zu bemerken
ist, daß auch in der „banalen Welt“ nicht die angewandte Physik der
Theorie folgte, sondern die Theorie der Anwendung. Römer haben schon
lange bevor sie auch nur einen Hauch von moderner Mathematik inne hatten,
monumentale Bauwerke erschaffen, lange bevor sich „Physiker“ und
„Mathematiker“ im 16.Jahrhundert erste Gedanken zur Theorie der Tragfähigkeit
eines Balkens gemacht haben. Auch zeitgenössische Datenspeicher und
Transportsysteme wurden und werden nach dem Ingenieursprinzip
„Ausprobieren“ (Versuch und Irrtum) entwickelt. Das Märchen, daß
Theorien einen gestalterischen Ersteinfluss auf „praktische“ Dinge
besitzen, ist weit verbreitet aber eben nur ein Märchen. Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich
sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit
ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr
wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell,
beispielsweise zur Materiebildung, minimalistisch ist und zugleich
parameterfreie, eindeutige Lösungen liefert. Diese Frage ist stets
beantwortbar. Rein mathematische Ansätze scheiden
erkenntnistheoretisch komplett aus, da Mathematik nichts weiter als eine Sprache
ist. Eine Sprache ist ein Kommunikationsinstrument um weltliche Dinge
„beschreiben“ zu können. Voraussetzung für eine Beschreibung ist
eine Wahrnehmung. Fehlt die Wahrnehmung (Beobachtung) so setzt
offensichtlich die menschliche Fantasie ein. Auch die Fantasie lässt sich
mittels Sprache „beschreiben“ und vermitteln, sofern die Übersetzungsfähigkeit
in andere Sprachen gewährleistet ist und es „spricht“ auch erst
einmal nichts gegen eine starke Formalisierung, wie im Falle der
Mathematik. Ein mathematischer Formalismus ist letztendlich aber nichts
weiter als ein - im Vergleich zu anderen Sprachen - komprimiertes
Sprachsystem. Lässt sich der mathematische Formalismus aber mangels
Anschauung nicht in eine gängige Sprache übersetzen, so ist er
kommunikationslos. Alles und Nichts kann zwar formalisiert aber nicht mehr
in eine allgemeinverständliche Plausibilität transformiert werden. Eine
spezielle Sprache bildet nur dann wahrnehmbare „Realität“ ab, wenn
diese in beliebig andere Sprachen übersetzt werden kann. Sprache selbst
gestaltet nie. Hier drängt sich argumentativ rational logisch die Frage
auf, wie es möglich ist, daß Physiker und Mathematiker der
Standardmodelle diese fundamentalen Erkenntnisse methodisch verdrängen. Fazit: Die Standardmodelle der Kosmologie
und der Teilchenphysik sind erkenntnistheoretisch wertlos, da diese auf
rein mathematischen Ansätzen beruhen, die sich auf Grund der
Nichttransformierbarkeit der Sprachelemente (Theorieobjekte) in andere
Sprachen nicht abbilden lassen, nicht vermitteln lassen. Aber sind SM und ΛCDM-Modell zumindest
„rechnerisch“ brauchbar? Auch diese Frage kann in beiden Fällen mit
einem klarem Nein beantwortet werden. Grundlage des ΛCDM-Modells sind
die Einstein-Friedmann-Gleichungen. Diese "mathematisch"
korrekten, nichtlinearen, verketteten Differentialgleichungen besitzen
keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen,
Idealisierungen) besitzen zwar Lösungen, diese sind jedoch nicht
kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete
Bedeutung (Details siehe u.a. das Kapitel ΛCDM-Modell). Wirklich interessant sind die
psychologischen und soziologischen Aspekte, die inhärent mit den Machern
und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu
kommen, daß ein eher kleiner Kreis von „Wissenschaftlern“ trotz
dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken
haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv?
Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen
für logische und formal-logische Kritik, doch es gibt so gut wie keine
aktiven Kritiker.
Die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee befindet sich in einer rational logisch fassbaren, unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »theoretischen Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt wird. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. An dieser Stelle sparen "wir uns" weitere Märchen und zitieren Theodor Fontane,
|
Interdisziplinäre Schlussbetrachtungen
Wenn man so will, die »Wurzeln« allen Übels, ...
Mathematische Hintergründe, ursprünglicher Sinn und Zweck, Verzicht der Anschauung, "Unsinn" Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“ zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise durch Sinus-Funktionen angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, indem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung "entwickelt" werden kann (Fourier-Reihe): Räume
mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20.
Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann
allgemein in Quantenfeldtheorien eingeführt. So
wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ...
darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines
Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere
Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in
Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die
„Obertonreihe“ (Fourier-Reihe). Insgesamt können nun
Wahrscheinlichkeiten gemessen werden, mit denen sich das Elektron in
einem der möglichen Zustände befindet. Wenn man genauer hinschaut
folgt hier die (ganzzahlige) Quantisierung „banalerweise“ aus der
mathematischen Darstellung. Der Formalismus ermöglicht nun die
vermeintliche „Bequemlichkeit“ sich nicht
realobjekt-inhaltlich mit der Phänomenologie der Quantisierung und
allgemein betrachtet mit der Phänomenologie des Geschehens
auseinandersetzen zu müssen um Ergebnisse zu erhalten. Wenn in der Quantenelektrodynamik (QED) nur ein Teilchen (Elektron) und ein Feldquant (Photon) nötig sind, so erfordert die Quantenchromodynamik (QCD) auf Grund der postulierten Theorieobjekte und deren Wechselwirkungen einen ganzen Satz von diversen „Teilchen“ und Feldquanten (Gluonen). Im Gegensatz zum Photon sollen Gluonen auch untereinander wechselwirken. Resultierende „innere Wechselwirkungs-Strukturen“ werden dann auf (mögliche) Symmetrien (Eichgruppen) zwischen den Grundelementen untersucht. Wenn
Euklid (…lebte
wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach
plausibler Anschauung für mathematische Grundlagen suchte und somit
eine interdisziplinäre Verbindung herstellte, die man als richtig
oder falsch bewerten konnte, so stellt sich in der modernen Mathematik
die Frage nach richtig oder falsch nicht. Euklids
Definitionen sind explizit, sie verweisen auf außermathematische
Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen.
"Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose
Länge. Eine Fläche ist, was nur Länge und Breite hat."
Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die
Geometrie axiomatisierte, verwendete er ausschließlich implizite
Definitionen. Die Objekte der Geometrie hießen zwar weiterhin
„Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht
weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass
man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen
reden könnte, ohne dass die rein logische Beziehung zwischen diesen
Objekten gestört wäre. Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben. Es ist immer zu fragen, was das Symbolisierte in den Symbolen ist. Beispielsweise treten quantenfeldtheoriebasierend Felder und differenzierbare Mannigfaltigkeiten an die Stelle des euklidischen Raums. Auch an die Symmetrie ist die Frage zu stellen, was eigentlich das "Symmetrische" ist. Diese Frage führt zu der mathematischen Technik des Aufbaus komplexer Funktionen und Funktionssystemen aus einfachen periodischen Funktionen. Exemplarisch über Johann Carl Friedrich Gauß (1777 – 1855), Georg Friedrich Bernhard Riemann (1826 – 1866), der u.a. den Begriff der Metrik einführte…welcher modern bedeutet: Eine Metrik ist ein Skalarprodukt auf dem Tangentialraum einer Mannigfaltigkeit M, die in differenzierbarer Weise vom Punkt p M abhängt. Die euklidische Metrik ist dabei lediglich ein Spezialfall… Geometrie ist im Riemannschen Sinne »innere Geometrie«, deren Objekte Größen sind, die nur von den lokalen Eigenschaften einer Metrik abhängen… folgen Felix Christian Klein’s (1849 – 1925) Ausführungen …zu Veränderungen der Lage - Drehungen, Spiegelungen, Verschiebungen, … - diese sind die Wirkung einer Gruppe, die er als „Transformationsgruppe“ bezeichnet. Die geometrischen Objekte sind Invarianten gewisser Gruppen, die auf Mengen operieren. Mit Rückführung der Geometrie auf die Algebra konnte man Geometrien klassifizieren, indem man eine Grundmenge und die darauf operierende Gruppe angab. Zwischen 1870 und 1920 wurden die mathematischen Axiome neu geschrieben (Dedekind, Cantor), es entstanden die Differentialgeometrie (Poincare, Einstein) und neue Algebren mit bisher unerforschten Symmetrien (Tensorkalkül, Lie-Algebra, Kristallographie). Die ersten Experimente zur Atom- und Quantenphysik ließen sich gut mit den bis dahin rein abstrakten mathematischen Formalismen verbinden, was erst zur bekannten Symbiose führte, welche sich sodann im Zuge der Begeisterung für mathematische Möglichkeiten letztendlich von der Realphysik abspaltete und diese im Zuge der Standardmodelle beherrschte. Von da an, musste die Natur der Mathematik genügen. William
Thurston (1946 – 2012) griff die Ideen von Klein auf. In seiner
grundlegenden Definition einer Modellgeometrie verbindet er einen
topologischen Raum mit der Wirkung einer Lie-Gruppe, welche gewissen
Maximalitätsbedingungen genügt. Dieses Werkzeug führte zur vollständigen
Charakterisierung aller möglichen Geometrien in der Dimension 3 und
zur Klassifizierung aller kompakten, 3-dimensionalen
Mannigfaltigkeiten. Lie-Gruppen und Lie-Algebren wurden um 1870 von
Sophus Lie (1842 – 1899) in der Lie-Theorie zur Untersuchung von
Symmetrien in Differentialgleichungen eingeführt. Unabhängig von Lie
entwickelte Wilhelm Killing (1847 – 1923) ähnliche Ideen zum
Studium nichteuklidischer Geometrien. Hermann (Klaus Hugo) Weyl (1885
– 1955) veröffentlichte 1913 das Buch Die
Idee der Riemannschen Fläche, in dem u.a. das moderne Konzept der
Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. In seinem
Aufsatz Gravitation und Elektrizität von 1918 führt er
erstmals das Konzept einer Eichtheorie ein, zunächst nicht in der
heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor.
In Weyl’s Vorlesungen Raum, Zeit, Materie entwickelt er
systematisch den Riccischen Tensorkalkül und benutzt die
Parallelverschiebung (Levi-Civita) von Vektoren als fundamentalen
Begriff. Das Eichprinzip wurde seit seiner Entdeckung lange nur als
Nebeneffekt angesehen, der einige Rechnungen vereinfachen kann, aber
ansonsten nur wenig Bedeutung hat. Die eigentliche Bedeutung des
Eichprinzips wurde erst 1918 von Hermann Weyl erkannt, der mit Hilfe
einer Eichtheorie (Invarianz unter Änderung der Längenskala)
versuchte, Maxwells Theorie mit der allgemeinen Relativitätstheorie
zu vereinen. Dieser Versuch scheiterte, aber Weyl begründete damit
eine ganz neue Herangehensweise an physikalische Probleme. Hermann
Weyl ist der Begründer der Eichtheorien im heutigen Sinn. 1954
veröffentlichten Robert L. Mills (1927 – 1999) und Chen Ning Yang
(1922 -) eine Arbeit, in der sie die Eichinvarianz der Elektrodynamik
verallgemeinerten und dadurch eine Theorie der schwachen und starken
Wechselwirkung schufen. In den 1960ern erkannte man, dass alle bisher
beobachteten Wechselwirkungen von Elementarteilchen durch Eichtheorien
beschrieben werden können. Exemplarisch
zum Thema Eichtheorien und Standardmodell (SM) siehe: http://www.physik.uzh.ch/~kmueller/text/vorlesung/eich1.pdf
„Heisenberg
und Kollegen“ waren noch als Mitbegründer des neuen
(mathematischen) Denkens mit den philosophischen Aspekten vertraut und
konfrontiert, die heutige Generation der Theoretischen
Teilchenphysiker und Theoretischen Astrophysiker scheinen wenig Verständnis
für erkenntnistheoretische Spielregeln zu besitzen, was sich
einfachst durch die große Anzahl freier Parameter, variabler
Kopplungskonstanten und beliebiger Substrukturierungsthesen objektiv
feststellen läßt. (Rhetorische) Frage? Was ist denn der Unterschied
zwischen Phlogiston, Licht-Äther, Gluonen und dunkler Materie?
Schlicht betrachtet handelt(e) es sich stets um Fantasiekonstrukte,
die als Fehlstellen des Wissens von einer autoritären Minderheit als
„nützliche“ Theorieparameter eingeführt wurden und dann von der
"Masse verdaut" wurden. Für
heutige Theoretiker ist die Welt der Mathematik identisch mit dem
Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem
Glauben eine konstruktive Komponente zugeschrieben. Diese neuen
Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft,
obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind.
Heutige Experimente zur Erweiterung des Standardmodells der
Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie«
welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien,
nein müssen Supersymmetrien genügen. Neue zeitinstabile
Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger,
direkt messbar sein werden, kommen eines Tages nach monatelangen
Berechnungen mittels Super-Cluster-Rechnern als
Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.
Die
Verselbständigung der mathematischen Abstraktionen führt
nachweislich zu beliebigen Fantasiekonstrukten. Und die damit
einhergehende Einschränkung des Blickwinkels erschwert es zunehmend,
wichtige Fragen nach den kausalen Zusammenhängen
zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend
zur irrelevanten Tätigkeit „verkommt“. Schon
Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen
das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja
sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck,
dessen selbst der große Euler nach seinem Geständnisse sich
nicht immer erwehren konnte." [EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
|