|
[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite.... |
Realobjekt-Forschung
geht von reproduzierbaren, empirischen Befunden aus und bemüht sich
dann um Systematisierung, Verallgemeinerung und ein „theoretisches
Verständnis“. Im heutigen standardmodell-orientierten Denken werden hingegen theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", daß man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Daß SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und "unerreicht" auf die Spitze getrieben. Dort thront stellvertretend für allerlei Unwissenschaftliches die Confinement-These.
Zur Form des Vortrages Es existieren zahlreiche paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.
Selbst für Physiker dürften die hier vorliegenden Ausführungen zum SM - häufiger als zunächst gedacht - "erste Erkenntnisse" sein. Viele leben in dem naiven Glauben, daß das Standardmodell der Teilchenphysik trotz der derzeit 25 freien Parameter]1, variablen Kopplungskonstanten, mehreren Dutzend postuliert essentiellen Theorieobjekten]2, assoziierter Verknüpfungszahlen (Quantenzahlen), diverser Substrukturierungs-Thesen, Confinement-These, ... auf rational logischen, konsistenten, experimentell bestätigten, formal berechenbaren Zusammenhängen basiert. Das dieser Glaube nachweislich haltlos ist, wird an zahlreichen Beispielen explizit erörtert. Zum Kennenlernen werden einige Sachverhalte und Denkanstösse bewusst an verschiedenen Stellen wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest.
]1
...25 freie Parameter des Standardmodells der
Teilchenphysik
(SM)
3 Kopplungskonstanten
der
starken Wechselwirkung ( 8 Gluonen, Farbladung) αs
der
elektromagnetischen Wechselwirkung (Photon, elektrische Ladung)
α
der
Schwachen Wechselwirkung (W+, W-, Z0)
αW
6 Quarkmassen
3 Massen der geladenen Leptonen
(Elektron, Myon, Tau)
4 Winkel zur Beschreibung von
Quark-Zerfällen
1 Winkel zur Beschreibung der
CP-Verletzung in der starken Wechselwirkung
Masse des Higgs-Bosons
3 Massen und 4 Mischungswinkel
massebehafteter Neutrinos
]2 ..."Counting particles by a rule that distinguishes between particles and their corresponding antiparticles, and among the many color states of quarks and gluons, gives a total of 61 elementary particles. If neutrinos are their own antiparticles, then by the same counting conventions the total number of elementary particles would be 58... Quelle Ein sehr guter Überblick über die Standardmodelle findet sich „unter“ Review of Particle Physics der Particle Data Group. Dort findet man neben experimentellen Methoden und Theoriebeschreibungen der derzeitigen Teilchenphysik, grundlegende Informationen zu Quarks, Neutrinos, Formfaktoren, … sowie Informationen zu „noch“ hypothetischeren Teilchen, wie beispielsweise Leptoquarks oder Axionen. Astrophysikalische „Konzepte“, kosmologische Parameter, experimentelle Tests von Gravitationstheorien etc. Des Weiteren werden (apparative) Aspekte der Beschleuniger-Physik, Monte-Carlo-Simulationen und vieles mehr vorgestellt.
Die
Particle
Data Group (PDG) ist
eine internationale Kollaboration, die eine ausführliche
Zusammenfassung der Teilchenphysik und verwandter Bereiche der
Kosmologie bietet. Die PDG-Kollaboration
besteht aus 227 Autoren aus 159 Institutionen in 24 Ländern (Stand
2017). Sie wird von einem Koordinationsteam geleitet, das sich hauptsächlich
am Lawrence
Berkeley National Laboratory (LBNL)
befindet, das seit Gründung der PDG
als Hauptsitz dient. Die Grundlagen der Quantenchromodynamik (QCD) siehe hier .
Lagrange-Dichte Um einen ungefähren Eindruck von der Komplexität des SM zu bekommen, wird hier folgend "kurz" die Lagrange-Dichte "vorgestellt". Neben dieser konkreten »Formulierung« gibt es noch weitere "Abbildungs-Varianten" ...
Erste "Randbemerkung" zum SM-Sprachgebrauch Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall, obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.
Das das Taktieren mit mehr als 20 freien Parametern "Alles" möglich macht, dürfte selbst für Normalbegabte verständlich sein. Streng genommen ist das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... ein philosophisches und kein physikalisches Denkmodell. Mit anderen Worten: Die deutlich weniger, genauer spärlich, voraussagefähige Quantenchromodynamik (QCD) ist als anerkanntes Theoriekonzept naturphilosophisch betrachtet, im Verhältnis zur QED, nicht der Rede wert, da die Anzahl der freien Parameter und die Anzahl der mit den Jahren auf Grund von Unstimmigkeiten zu Meßergebnissen dazugekommenen postulierten Theorie-Objekte jeden argumentativ vertretbaren Rahmen sprengen. Elektroschwache Theorie und das Konzept der Eichbosonen als "Wechselwirkungsvermittler" sowie "energieerhaltungssatzverletzendes Virtuelles" und nicht (direkt) beobachtbare "Energieräuber" sprich Neutrinos, sind mathematik-generierte Emotionen überforderter "Wissenschaftler", die Fantasien aber schon lange kein Wissen mehr schaffen. Realphysikalisch und erkenntnistheoretisch ist das SM eine "methodische Nullnummer". Die Diskrepanzen zwischen experimentellen Daten und nicht passenden Theorien wurden und werden nachträglich passend gemacht. SM-übliche "Maßnahmen" waren und sind die Einführung weiterer Theorieobjekte samt neuer Quantenzahlen. Siehe exemplarisch die »Quark-Erweiterungen«:
Anfang und Ende des SM Eine richtungweisende, weit reichende Fehlentscheidung wurde im Jahre 1988 getroffen.
... vom SM selbst nachgewiesene fatale Theoriefehler Quarks sind keine Fermionen - Der nicht vorhandene Spin der Quarks und Gluonen Ich möchte und "muß" das an dieser Stelle nicht im Detail fachlich vertiefen, weil es gar nicht notwendig ist, da es sich sprichwörtlich leicht aufzeigen lässt, daß sich aus übergeordnet rational logischen Gründen, die These das Quarks Fermionen sind (und insbesondere innerhalb der Struktur und Implikationen des SM) eindeutig widerlegen lässt, da entsprechende Standardmodell induzierte Versuche existieren, die das aussagen. Und hier haben wir eine konkrete Situation vorliegen, die äußerst schwer zu „verkraften“ ist. Psychologisch erst einmal nahezu unlösbar, weil sich niemand vorstellen kann, daß eine tragende Hypothese eines über Jahrzehnte etablierten Denkmodells nachweislich falsch ist und als solche nicht korrigiert wird. Zigtausende, gut ausgebildete Wissenschaftler über mehrere Generationen leben und arbeiten mit einer gravierenden Falschaussage? Insbesondere Laien aber auch Physiker, die nicht mit dem Formalismus des SM vertraut sind, können sich schlicht nicht vorstellen, daß dies möglich ist. Man unterstellt dem kritischen Betrachter, der auf die nachweisbaren Zusammenhänge aufmerksam macht, daß dieser etwas übersehen hat, emotional begünstigt durch den Umstand, das man ja selbst nicht über die nötige mathematisch-formale Sachkenntnis verfügt. Das sind äußerst schwierige Randbedingungen aus Sicht realitätssuchender Aufklärung. Wie auch immer, ich bin der Meinung, daß der Sachverhalt sehr wohl erklär- und verstehbar ist. Ich versuche es mal: Die erste Annahme war, bedingt durch die theoretischen Vorgaben Mitte der 1960er Jahre, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Diese Annahme wurde 1988 bei den EMC-Experimenten nicht bestätigt. Ganz im Gegenteil, es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Die Quark-These von fermionischen Spin-½-Teilchen wurde experimentell nicht bestätigt. Hier hätte man aus wissenschaftlicher Sicht die "Quark-Idee" - experimentell basierend - argumentativ überprüfen müssen. Man kann diesen verpassten (möglichen) Wendepunkt gar nicht genug "strapazieren". Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-½-Teilchen "vorgestellt"?
Psychologisch ist das insofern leicht
verständlich, da das SM Ende der 1980er Jahre bereits mehr als 20 Jahre
existierte. Das in den sechziger Jahren von Richard Feynman entwickelte
Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung
grundlegender punktförmiger Bauteile, die Feynman Partonen
nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor
gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert. Man
hoffte also Ende der 1980er Jahre darauf, dass es zukünftig Experimente
geben wird, die den halbzahligen Spin der Quarks bestätigen. Eine
Abkehr von der Hypothese das Quarks Fermionen sind, wäre das Ende des
SM gewesen. Dann „passierte“ etwas phänomenologisch Merkwürdiges.
Weitere Denkansätze und Versuche brachten neue Theorieelemente ins
Spiel. Merkwürdig in dem Sinne, daß mit dieser Idee das Quark als Träger
eines intrinsischen Spinbeitrages bei genauer Sicht bereits gedanklich
abgeschafft wurde.
Aber auch die daraus entstandene Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen.
Was
den stark theoriebeladenen experimentellen Teil der postulierten
relativistischen Quarks-„Bahndrehimpulse“ angeht, siehe die Ausführungen
zum COMPASS-Experiment. Zur Computersimulation siehe exemplarisch
The nucleon spin
and momentum decomposition using lattice QCD simulations …Man
beachte trotz der ergebnisorientierten Berechnungen die enormen
Fehlergrenzen, wenn man in einem größeren Bild diese mit den
Fehlergrenzen für (realphysikalische) magnetische Momente vergleicht
(Doppel-Penning-Falle, QED). Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" (relativistischen) Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst).
Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den "Vorteil", daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und Konstrukten, wie "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird und aus Sicht der SM-Gläubigen nicht falsifiziert werden kann. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber hier kommt das riesengroße, übermächtige, logisch rational begründete
diese
Maßnahme rechtfertigt offensichtlich keine Klassifizierung der Quarks
als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus
nicht beobachtbaren postulierten Theorieobjekten und Wechselwirkungen
auch immer annonciert wird, die Quarks selbst werden dadurch nicht
zu Spin-½-Teilchen-Entitäten.
Der Sachverhalt lässt sich (glücklicherweise) allgemein formulieren. Die Behauptung eine Entität (Quark) besitzt einen meßbaren intrinsischen Wert ist widerlegt, wenn Messungen keine solchen Ergebnisse liefern. Die Addition von weiteren postulierten Theorieobjekten (postulierte Gluonen) und weiteren postulierten Wechselwirkungen (relativistische Effekte) mögen in der Summe der Ereignisse den theoriegewünschten Wert ergeben, aber dadurch erhält respektive enthält die ursprüngliche Entität nicht den postulierten intrinsischen Wert. Diese Argumentation ist so einfach wie sie verständlich ist. Und nun? Ohne Quarks als Fermionen ist das SM am Ende. Dieser Umstand wird nicht thematisiert, verdrängt und wenn nötig verschwiegen. Es ist naiv zu glauben, daß die rational-logisch zu verstehende Erkenntnis Quarks sind keine Fermionen sich „einfach“ so durchsetzen wird. Denn dann sind alle bisherigen SM-Bemühungen „Geschichte“. Epizykeltheorie und Phlogistontheorie grüssen. Es bedarf öffentlich wahrnehmbarer „sozialer“ Situationen, die mit erfahrenen und kompetenten Moderatoren weite Verbreitung finden, um den seit Jahrzehnten bekannten Fake News des SM, die einen SuperGau der Erkenntnistheorie und SuperGau der Logik entsprechen ein Ende zu bereiten. (Ein Beispiel am Rande bemerkt: Frau Hossenfelder hat, trotz der Tatsache, daß sie in Teilen eine Kritikerin des SM ist, meine diesbezüglichen Kommentare in ihren themenrelevanten Blogbeiträgen nicht veröffentlicht. Ein möglicher Grund: Frau Hossenfelder "mag" Quarks als Fermionen oder genauer, auch Frau Hossenfelder braucht Quarks im Hinblick auf die von ihr favorisierten Quantengravitation, da ohne fermionische Quarks das SM und letztendlich jede assoziierte aktuelle Quantenfeldtheorievariation mangels Fermionenbasis nichtig ist.)
Das Standardmodell der Elementarteilchenphysik beginnt und endet mit Quarks, die Fermionen sein sollen aber keine sind. Theorieakte geschlossen. Was kommt als nächstes? Um aufzuzeigen, daß es sich hier nicht um einen fatalen "Ausnahmefehler" handelt, sondern das das SM in weiten Teilen methodisch aus erstaunlich vielen "Denk-Fehlern" besteht, wird nachfolgend erörtert.
Darüber hinaus ist auch die postulierte Asymmetrie der Quark-Ladungsträger in Form stark unterschiedlicher Massen(-Grenzen) und unterschiedlich fragmentierter elektrischer Elementarladung eine erkenntnistheoretische Zumutung, insbesondere unter dem Aspekt das Quarks nicht detektiert werden können (Confinement-These).
Diese Leute sind so überzeugt von ihrem Glauben, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte eine komplexe, mehrobjekt-asymmetrisch, ladungsfragmentierte, dynamische Substruktur einen Spinwert ½ und eine ganze Elementarladung e über dynamische Zustände im zeitlichen bzw. statistischen Mittel erschaffen? Der Vergleich mit dem SM-postuliert punktverarmten, "leptonischen" Elektron, mit Spinwert ½ und ganzer Elementarladung e, welches ohne "dynamische Mühe" und Struktur dieses "schafft", identifiziert die Quarks-Gluonen-These als Glaubensmärchen. Dieses Märchen dürfte selbst Normalbegabten als solches erscheinen.
Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, daß man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun. Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (mathematik-)gläubigen Menschen ins "Spiel". Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
[Theorieobjekte der Nahrung, ... ich sah was, was auch du jetzt siehst, ..., kein Quark aber (ein) Fisch "im" Käse]
Grundsätzliches Detailwissen ist eine Grundvoraussetzung um sachdienlich substanzielle Kritik üben zu können, doch der Leser, allgemeiner der Interessierte, muss erst einmal keineswegs im Detail wissen, was eine Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour, Hyperladung oder Quarkonia ist. Denn offensichtlich werden im Standardmodell der Teilchenphysik diverse theoretische Konzepte, respektive deren Theorieparameter verknüpft, verschachtelt und vermischt, so daß jedwede (experimentell resultierende) Konstellation theoretisch erfasst werden kann. Mit anderen Worten: Ratlosigkeit und Phänomenologieferne wurden und werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es, mit fortschreitender Komplexität, vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen. Da aber keines dieser Theoriekonzepte eine konsistent begründete physikalische Realität abbildet, ergibt sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn. Es sei denn, man bewertet ein Konstrukt aus frei wählbaren mathematischen Beliebigkeiten als geistreiche Errungenschaft. Nur in diesem Fall ist das "Freiwählbare" dann kein physikalisches Denkmodell mit naturwissenschaftlichen Standards sondern lediglich ein philosophisches Glaubensbekenntnis. Zur Erinnerung: Alle standardmodell-assoziierten, angeblich experimentellen Beweise sind indirekt. Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung. Die Detektoren registrieren in letzter Konsequenz schlicht Strahlungsenergie (Photonen) oder beispielsweise Elektronen, Positronen, Protonen. Alle dazwischenliegenden postulierten Kaskadenereignisse sind bei genauer Betrachtung nahezu beliebig wählbar. "Randnotiz": Das Problem ist aus energetischer Sicht sowohl qualitativ als auch quantitativ deutlich größer und komplexer als hier "skizziert" wird. An dieser Stelle nur soviel: Die masseabhängig-postulierte Energieerhaltung wird über postulierte Neutrinos beliebig "vervollständigt".
Konträr zu den willküraffinen Standardmodellentwicklungen lassen sich ein funktionaler Beginn und ein naturphilosophischer Beginn definieren. Funktionaler Beginn Denkmodelle (zur Materiebeschreibung) können nur wissenschaftliche Relevanz besitzen, wenn sie auf einem theoretischen Fundament beruhen, dessen Axiome untereinander logisch konsistent sind und zu einer mathematisch hinreichend widerspruchsfreien Theorie führen. Naturphilosophischer Beginn Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten, wie Gravitationskonstante, kleinste (skalare*) Wirkung oder Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und weiterführend, aufbauend-konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.
Die
Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen
so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was
(physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein
Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein
gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch
ist und zugleich eindeutige Lösungen liefert. Diese
Frage ist stets beantwortbar. Die etablierte Annahme der Standardmodell-Vertreter, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt messbar sind. Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit einer »Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird im Folgenden erörtert. Um die vielfältigen Zusammenhänge
gesamtheitlich durchschauen und
verstehen zu können, bedarf es u.a. beträchtlicher historischer
Kenntnisse. Diese gehören leider nicht zur Schul- und Universitätsausbildung
von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung
werden also weder in einem historischen Kontext erörtert noch im Rahmen
der herrschenden mathematischen Modelle adressiert. Das Sammelsurium an
mathematischen Möglichkeiten führt(e) u.a. zu einer stetigen Veröffentlichungswelle
von theoretischen Beliebigkeiten.
Am Rande bemerkt...
Globale
Verständigungs-Probleme
Es
existieren fundamentale Wissenslücken, dessen Ursachen mit dem politisch gewollten
Ausschleichen primärer Bildung in direkter Verbindung stehen. Die Lesefähigkeit
nähert sich Schritt für Schritt dem funktionalen Analphabetismus und
die Fertigkeit kurze, formal präzise Mitteilungen im Sinne rational
logischer Möglichkeiten weiterdenken zu können wird nur selten
erlernt. Das Gros der Menschen des frühen 21.Jahrhunderts verfügt nur über
eine einfache Lesefähigkeit, die durch den täglichen Gebrauch von
„SMS und Twitter“ genährt wird. Dieser, aus vielerlei Sicht,
traurige Ist-Zustand gilt auch für akademisch ausgebildete (junge)
Leute, zumal dessen reales Bildungsniveau, bis auf Ausnahmen, nicht
(mehr) den Standards einer fundierten Wissenschaftsorientierung
entspricht. Somit kommt weder eine komplexere Aussagegestaltung noch
eine aphoristische Form der Beschreibung in Betracht. Das Verstehen
einer „Schrift“ – insbesondere mit neuen, ungewohnten,
alternativen Ansätzen – lebt von der notwendigen Leichtigkeit des
Betrachters im Umgang mit Textobjekten. Jemand der schon Schwierigkeiten
hat, überhaupt lesen zu können, fehlen die spielerischen Möglichkeiten.
Es fehlt sozusagen die freie Kapazität sich auf den Inhalt
konzentrieren zu können.
Ausgangssituation
Der
Glaube an die naturwissenschaftliche Relevanz des Standardmodells der
Elementarteilchenphysik ist geprägt durch die historisch gewachsene
Erwartungshaltung. Physik bedeutet(e) für Laien als auch für
professionell Interessierte, das das Streben nach Erkenntnis zu rational
logischen Denkmodellen und resultierenden Gleichungen führt, die
Messereignisse abbilden und berechnen können, so wie man es von einer exakten
Naturwissenschaft selbstverständlich erwartet. Die grundsätzliche
Problematik begann jedoch mit der »experimentellen Wirklichkeit« der
Beschleuniger. Alle im Teilchenbeschleuniger produzieren
Kollisionsereignisse führen zu einer Kaskade von energetischen Möglichkeiten.
Nun dominierte ziemlich bald die theoretische Erwartungshaltung wonach
gesucht wurde und wie die Messergebnisse phänomenologisch interpretiert
wurden.
Schwerionen
in plasmatischen Traumzuständen
...ein
kläglicher Versuch die Confinement-These praktisch zu
umgehen
Der
LHC ist darauf ausgelegt, Protonen auf Energien von 7
TeV zu beschleunigen und so Kollisionen mit einer
Schwerpunktsenergie von 14 TeV zu ermöglichen.
Im
Bereich von beschleunigten Schwerionen, wie Bleikernen,
erreicht der LHC Energien von 2,7 TeV pro Nukleon, in
Kollisionen von Bleikernen mit 208 Nukleonen finden also
theoretisch Kollisionen bei einer Energie von 1150 TeV
statt.
Der
aktuell zweitstärkste Ionenbeschleuniger ist der
Relativistic Heavy Ion Collider (RHIC) in Brookhaven
(USA), der mit 0,2 TeV pro Nukleon in Kollisionen von
Goldkernen eine theoretische Höchstenergie von etwa 78
TeV erreicht.
Zur
Auswertung dieser Ereignisse, mit denen das postulierte Quark-Gluon-Plasma
untersucht werden soll, ist das ALICE-Experiment
konstruiert.
Soviel
zur Theorie und Praxis des Standardmodells.
Aber
es handelt sich bei postulierten
Quark-Gluon-Plasma-Nachweisen nicht um direkte
experimentelle Nachweise, sondern um stark
theoriebeladene Versuchsergebnisinterpretationen. Das
gilt auch für Schwerionenkollisionen.
Das
eigentliche Verständigungsproblem beginnt schon viel früher.
Der Begriff Plasma ist bezogen auf die Theorieobjekte
Quark und Gluon falsch.
Die
gemäß SM postulierten Quarkmassen ergeben in der Summe
bei weitem nicht die Nukleonenmassen. Gluonen sind
masselos.
Postulierte
Up-Quark Masse: 2.3±0.7 ± 0.5 MeV/c² up (u)
Postulierte
Down-Quark Masse: 4.8±0.5 ± 0.3 MeV/c² down
(d)
938,272 0813(58)
MeV/c² Protonmasse
duu ~
0,8 – 1,2
% (!!!) Quarksmassenanteil
939,565 4133(58)
MeV/c² Neutronmasse ddu ~ 1,1
– 1,4 % (!!!) Quarksmassenanteil
Somit
sind auch aus Protonen und Neutronen zusammengesetzte
Schwerionen (wie Blei- oder Goldkerne) nicht durch
Quarks und Gluonen darstellbar. Das bedeutet, daß nach
dem Masse-Energie-Äquivalenzprinzip Nukleonen und
letztendlich Schwerionen fast gesamtheitlich aus phänomenologisch
unbestimmter Bindungsenergie bestehen. Noch
gravierender
ist die Tatsache, daß die Schwerionen auf fast
Lichtgeschwindigkeit beschleunigt werden, bevor sie
kollidieren. Das bedeutet, es kommt zur Bindungsenergie
auch noch eine beträchtliche Menge an äußerer Energie
hinzu. Wie diese sich phänomenologisch vorstellbar in
Translationsenergie und »Masseäquivalenz« aufteilt,
sagt uns die Relativitätstheorie nicht. An
Richard Feynman’s Aussage
"It
is important to realize that in physics today, we have
no knowledge of what energy is."...
"Es
ist wichtig, einzusehen, dass wir in der heutigen Physik
nicht wissen, was Energie ist."...
hat
sich bis heute nichts geändert. Die Physik lebt von
sekundären Größen respektive sekundären Begriffen,
die allesamt keine (konsistente) Phänomenologie
besitzen.
Genauer:
Wenn 2,7 TeV bei Blei-Ionen beim LHC auf ein Nukleon
entfallen, dann beträgt bei einem Massenanteil der
Quarks von ca. 1% der prozentuale Massen-Anteil am
Geschehen gerade einmal 0,00035 %.
Fazit:
Nicht gemäß einer Meinung, sondern nach dem
Kenntnisstand und den Postulaten des SM kollidieren bei
Teilchenkollisionen also hauptsächlich phänomenologisch
unbestimmte beschleunigte Energiepakete sprich
Bindungsenergien und hauptsächlich äußere Energie
miteinander, von Elementarteilchenmassen existiert so
gut wie keine »Spur«.
L(arge)H(adron)C(ollider)
Informationen
Von
den ursprünglich 40 Millionen Strahlkreuzungen werden nur ca. 200 pro
Sekunde gespeichert und für eine Analyse bereitgestellt.
Aus bestehenden physikalischen Theorien werden
Hypothesen aufgestellt, wie beispielsweise eine Erweiterung der Theorie
aussehen könnte. Dann werden Detektorsimulationen berechnet, wie eine
Teilchensignatur unter diesen hypothetischen Annahmen, bei einer
Teilchenkollision aussehen müsste. Dann folgt der Vergleich. Pythia,
die weissagende Priesterin im Orakel
von Delphi ist Namensgeberin für ein Computerprogramm,
das verwendet wird,
um Kollisionen an Teilchenbeschleunigern zu simulieren.…
Randnotiz
zum Neutrino
...
diese war nur solange eine Notiz am Rande,
bis "eines Tages" auch die Vertreter des Standardmodells,
spätestens mit Würdigung des Nobelpreises für Physik im Jahre 2015,
anerkannten, daß Neutrinos eine Masse besitzen. Es existieren nun zwei
Ausschließungsprinzipien, eines davon formal, ausgehend von der
mathematischen Konzeption des SM und ein sprichwörtlich
weiterreichenderes,
ausgehend von dem Wechselspiel zwischen Phänomenologie und
experimenteller Nachweisbarkeit.
Aus
praktischen Gründen werden
"Zehnerpotenzen" exemplarisch wie folgt
geschrieben: 1,23·10-3 = 1,23e-3. Das
hat den Vorteil, daß der interessierte Leser die
entsprechenden Zahlenwerte "gleich" in den
"Computer" zur "Kontrolle" übernehmen
kann (Copy&Paste).
Widerlegung
der Neutrinothesen
Allgemeine
Vorbetrachtungen Ein
Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist
die Fragestellung das Ergebnis eines mathematischen Formalismus so ist
das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die
messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten
Theorieobjekten „verbunden“ sind, ist der
Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so
theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter
als ein (dogmatischer) Einigungsprozess. Auch
für Neutrinos gilt: Es gibt keinen einzigen direkten
Neutrinonachweis. Es handelt sich stets um stark theoriebeladene
Versuchsergebnisinterpretationen. "Gehen
wir gleich mal in die Praxis"...
Gemäß
SM „bedeutet“ Neutrinoforschung beispielsweise:
…Man
misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss
der Neutrinos…
Nun
sind aber schon Pionen (π0, π -, π+)
und erst recht Kaonen (K+, K-, K0,
K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe
https://en.wikipedia.org/wiki/Kaon,
https://en.wikipedia.org/wiki/Pion)
des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie
Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung
ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „
vielfältige“ Wechsel-Wikungs-Spiel-Szenarien. Des Weiteren: Das
neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt
(allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation
(siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation)
und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer
kurzlebigen Form existieren.
Daraus
nun auf Eigenschaften „flavor-oszillierender“[G]
Neutrinos zu schließen,
potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu
verstehen, braucht man den absoluten Glauben an axiomatische
Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, daß
jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin -
in Verbindung mit der »experimentellen Seite« - grob geschätzt einige
Dutzend weitere ergebnisorientierte Annahmen machen müssen, … kümmert
SM-Gläubige nicht).
[G]
wie infantil verwahrlost
das SM ist, wird hier - auch ohne Kenntnis
irgendeiner theoretischen Spezifikation -
sprachlich überdeutlich, wenn man rein
"Deutsch" vorträgt:
„geschmacks-oszillierend“
...bedeutet
also auch für das Theorieobjekt Neutrino:
"barer Unsinn "ahead"... Mit der von der "etablierten
Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen,
ändern sich die phänomenologischen Randbedingungen fundamental.
Neutrino-Wechselwirkung
und Elementarkörpertheorie
Neutrinos
stehen nicht im Widerspruch zur Elementarkörpertheorie,
wenn man unter einem Neutrino einen
hochrelativistischen, somit nahe an der
Lichtgeschwindigkeit bewegten Elementarkörper
versteht, da dessen Masse-Radius-Verhältnis
zu einem sehr kleinen Wirkungsquerschnitt
führt. Diese „Elementarkörper-Neutrinos“
besitzen aber keine von anderen Elementarkörpern
verschiedene Alleinstellungsmerkmale, die
sie als „neue Entität“ auszeichnet.
SM
basierendes formales Problem
Um
die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu
erzeugen, müssen folgende Bedingungen erfüllt sein:
Die
Massen der rechts- und linkshändigen Fermionen müssen gleich sein.
Das
Neutrino muß masselos bleiben.
Diese
Grundbedingung steht in einem eklatanten Widerspruch zu
Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen
voraussetzen. Konsequenz: Man verabschiedet sich entweder vom
Standardmodell der Teilchenphysik oder von massebehafteten Neutrinos.
Der
Vollständigkeit halber sei erwähnt, ...da man sich vom Standardmodell
nicht trennen will, gibt es im Rahmen mathematischer Ergänzungen stets
die Möglichkeit Neutrinomassen "irgendwie" einzubauen. Das
ist aber nur möglich, da das Konstrukt des SM bei genauer Betrachtung
keinerlei überprüfbare realphysikalische Referenz besitzt, sprich alle
SM-assoziierten vermeintlichen Objekt-Nachweise sind indirekte, stark
theoriebeladene Versuchsinterpretationen. Einfach ausgedrückt: Egal wie
strukturiert ihr bisheriger Lieblingswunsch auch ausgesehen haben mag,
natürlich können sie in ihrer Fantasie aus masselosen massebehaftete
Objekte "erdenken". Doch mit den ursprünglichen Thesen und
der ursprünglichen (mathematischen) Konzeption ist diese
"neue" Idee nicht verträglich. Aber, wie sagt "man"
so schön, was stört mich das (eigene) Geschwätz von gestern.
Phänomenologisches
Problem
"Zur
Erinnerung": Das Standardmodell der Elementarteilchenphysik zielt
darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte
mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu
erfassen.
Die
Definition der Masse eines Teilchens bezieht sich im Rahmen des
Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre
Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt,
wie auch die Gravitationswechselwirkung die im Standardmodell nicht
beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert
sich im Propagator des Teilchens.
Neutrino-Oszillationen
...und der Neutrino-Forscher sprach: mein Wille geschehe, es werde
umgewandelt... …“Das
Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten
Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine
Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische
Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung
zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln
beschrieben. Neutrinomischung kann zu dem Phänomen der
Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom
Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort
zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche
quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann
ein Neutrino, das als Elektronneutrino produziert wurde, beim Detektor
mit einer gewissen Wahrscheinlichkeit als Myonneutrino beobachtet
werden.“… Da
können religiöse Führer noch eine Menge von Neutrinomachern lernen... Mit
der von der "etablierten Physik" (nun) vertretenden Meinung,
daß Neutrinos Masse besitzen, ändern sich die phänomenologischen
Randbedingungen fundamental. Es
existiert eine – ausgehend von den Postulaten zur Schwachen
Wechselwirkung - Unbestimmtheit des Beta-Minus-Zerfalls,
die eine spezifische Neutrinoexistenz aus phänomenologischer Sicht
stark diskussionswürdig macht.
Am
Rande bemerkt: Die „geforderten“ Erhaltungssätze (Energie,
Impuls, Ladung und Leptonenzahl) sind bei einem „Zerfall“ zu
beachten. Es resultiert ein Anti-Elektron-Neutrino (Leptonenzahl -1 gemäß
Elektron (Leptonenzahl +1), da auf der „anderen“ Seite des
„Zerfalls“ das Neutron steht (Leptonenzahl 0). Sollte
sich das Neutrino als Majorana-Teilchen (eigenes Antiteilchen)
"herausstellen" (...heißt eigentlich: ...wenn man sich darauf
einigt), so ist diese Unterscheidung hinfällig. Mehr noch: Die
Leptonenzahlerhaltung wäre verletzt und würde als Erhaltungssatz nicht
mehr gelten! Neutrinomassen ≠ 0
Es
existiert energetisch kein verbindlicher Prozess
der Umwandlung eines d-Quarks in
ein u-Quark Unabhängig
von der SM-konstruierten Leptonenzahl gilt folgendes: Das Neutrino wurde
historisch eingeführt weil das Energiespektrum der (emittierten)
Elektronen keine diskrete sondern eine kontinuierliche Verteilung zeigt.
Doch wenn das Anti-Elektron-Neutrino, mit welcher unteren Massegrenze
auch immer, die „fehlende“ Energie aus dem Laborsystem „entführt“
und nur durch die Schwache Wechselwirkung (effektiv*) „wirken“ kann,
dann bedeutet das schlicht und ergreifend, daß bereits bei dem Prozess
der Schwachen Wechselwirkung ein kinetisches Energie-Kontinuum des
postulierten Neutrinos vorhanden sein musste. Denn nach diesem Prozess
gibt es gemäß Postulat keine weitere Wechselwirkungsmöglichkeit. Nur
wie soll dies phänomenologisch erklärt werden? *
da die postulierte
Graviationswechselwirkung hier nicht "ins Gewicht fällt" Die
lapidare Aussage des SM, daß der Beta-Minus-Zerfall des Neutrons gemäß
Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen
W-Bosons stattfindet sagt nichts über den konkreten Ablauf aus, wie,
woher und warum das Anti-Elektron-Neutrino nun während der Schwachen
Wechselwirkung unterschiedliche Energiemengen aufnimmt um die
„fehlende“ Energie im Elektronenspektrum zu kompensieren. Beta-Minus-Zerfall
des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark,
mittels negativ-geladenen W-Bosons Bei
genauer Betrachtung ist die Situation weitaus komplexer, da sowohl
postuliert Quarks basierendes Neutron als auch das Quarks basierende
Proton zu ~ 99% aus undefinierter Bindungsenergie besteht und sich die
Schwache Wechselwirkung (energetisch) somit nur auf ~ 1% des
Zerfallsprozesses auswirkt. Die
Masse des d-Quarks [qm] beträgt 4,8 (+0,5 / - 0,3) MeV/c²,
die Masse des u-Quarks beträgt 2,3 (+0,7 / - 0,5) MeV/c² [qm]. [qm]
Quarkmassen : http://pdg.lbl.gov/2013/tables/rpp2013-sum-quarks.pdf Das
bedeutet, der Massenunterschied beträgt zwischen 1,5 bis 3,5 MeV/c².
Das Elektron-Anti-Neutrino mit einer Masse(nuntergrenze) von ≤ 2.2
eV/c² kann maximal ~ 0,78 MeV aufnehmen. Gemäß
Elektronenenergiespektrum ist die mittlere Energie aber deutlich kleiner
als 0,78 MeV, die vom Neutrino "aus dem Laborsystem entführt
wird". Was ist mit der fehlenden Energie der Schwachen
Wechselwirkung geschehen? "Gluonische Bindungsenergie" kann es
nicht geworden sein, da Gluonen nicht an der postulierten Umwandlung
eines d-Quarks in ein U-Quark teilhaben. Auch der virtuelle Zauber
des ~ 80,4 GeV/c² schweren W-Bosons kann real-energetisch nichts
aufnehmen. Hier gilt für die
herrschende Physik mehr denn je:
"Es
ist wichtig, einzusehen, dass wir in der
heutigen Physik nicht wissen, was Energie
ist."...
Richard
Feynman
"It
is important to realize that in physics
today, we have no knowledge of what energy
is."... Wir
haben also im Bild des SM anfangs 1 u-Quark und 2 d-Quarks,
zwischenzeitlich ein W-Boson und ~ 99% Bindungsenergie (was das auch
immer phänomenologisch sein soll) und nach der Umwandlung 2 u-Quarks,
1d-Quark, 99% Bindungsenergie, 1 Anti-Elektron-Neutrino, 1 Elektron und
zusätzlich ~ 0,78 MeV Energie. Egal wie die Energieverteilungsmöglichkeiten
der ~ 0,78 MeV auf Proton (2 u-Quarks, 1d-Quark, 99% Bindungsenergie),
Elektron und Anti-Elektron-Neutrino auch aussehen mögen, der Prozess
der Schwachen Wechselwirkung müsste bereits so geartet sein, daß diese
Verteilungsmöglichkeiten gewährleistet sind, da nach der Schwachen
Wechselwirkung keine Energieabgabe des Neutrinos an das Proton und
Elektron mehr möglich ist. Das bedeutet aber, daß es keinen
diskreten Umwandlungsprozess eines d-Quarks in ein u-Quark geben kann. Nicht
Diskret bedeutet hier insbesondere: Es existiert energetisch
kein verbindlicher Prozess der Umwandlung
eines d-Quarks in ein u-Quark.
Aus einem Neutron-u-Quark entstehen durch die Schwache Wechselwirkung
energetisch unterschiedliche Elektron-Anti-Neutrinos, da ja nach der
Entstehung außer der Schwachen Wechselwirkung weitere Wechselwirkungsmöglichkeiten
ausgeschlossen werden. Somit existiert keine energetisch eindeutige
Umwandlung eines u-Quarks in ein d-Quark. Losgelöst
von dieser Problematik sei der Vollständigkeit halber auch daran
erinnert, daß es sich experimentell nicht um Einzelobjekte sondern um
Vielteilchenobjekte (mehr als 1 Neutron) handelt und beschleunigte
Ladungen Energie abstrahlen. Es ist wohl nicht davon auszugehen, daß
die entstandenen Protonen und Elektronen „plötzlich“ mit einer
konstanten Geschwindigkeit vorliegen. „Wo“ ist das assoziierte
Photonenspektrum des Beta-Minus-Zerfalls? Wie sieht es aus? Und
noch "ETWAS"... Nach
de Broglie kann jedem Teilchen und jedem zusammengesetzten
Körper eine Materiewelle zugeordnet werden. Das
Konzept der de Broglie Materiewelle liefert einige sehr
interessante Aspekte.
Erst
einmal ist zu beachten, daß de-Broglie-Materiewellen der (zur
Ruhe-Energie additiven) kinetischen Energie der Teilchen entsprechen und
nicht den Teilchen selbst, die durch ihre ruhemassespezifischen
Comptonwellenlängen charakterisiert sind.
Im
Gegensatz zu den Comptonwellenlängen sind de-Broglie-Materiewellen
nicht teilchencharakteristisch, da beispielsweise für Neutronen,
Elektronen und Protonen, Moleküle bei passender Geschwindigkeit
de-Broglie-Materiewellen teilchenunspezifisch als Äquivalent der
kinetischen Energien identisch sein können. De
Broglie
Materiewellen sind interferenzfähig. Das
Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich
zu Neutrinoexistenz- und Neutrinowechselwirkungs-Postulaten
experimentell gesichert und experimentell reproduzierbar.
Experimentell-phänomenologisches
Problem Es
gab keine Realobjektphänomenologie für das masselose Neutrino und auch
die "Mischkalkulation" für Neutrinomassen ist nichts weiter
als eine formalisierte Fiktion. Hier gilt rational logisch und folgend
das unlösbare Neutrino-(Nicht-)Existenz-Problem
bedingt durch die Phänomenologie der Masse, bedeutet: Wer bewegte
Massen will, bekommt auch masseninhärente Materiewellen.
Der
Wunsch der Neutrinogläubigen, daß auch
massebehaftete Neutrinos nur der Schwachen Wechselwirkung und der
Gravitation unterliegen ist eine Theorie-(Schutz-)Behauptung. Hier zeigt
sich wieder einmal, wie eklatant sich fehlende Denkmodell-Phänomenologie
auswirkt.
Da
die de Broglie Materiewelle ohne Einfluss einer möglichen
(Sub-)Strukturierung nur von der Ruhemasse und der Geschwindigkeit des
"Teilchens" abhängt, gilt das Konzept der Materiewelle
allgemein. Hier wäre, in Hinblick auf SM postulierte Theorieobjekte
und Wechselwirkungsszenarien noch zu bemerken, daß nachweislich die
postulierte komplexe (eingekapselte) Quarks-Gluonen-xxx-Struktur keinen
Einfluß auf die de Broglie Materiewelle hat, Beweise: de
Broglie Materiewellen des Neutrons, Protons, Molekül- und
Fullerene- de Broglie Materiewellen.
Es
spricht aus Sicht der Materiewelle nichts gegen massebehaftete
Neutrinos.
Ein
massebehaftetes Neutrino besitzt eine von
der Gesamtenergie abhängige de-Broglie-Materiewelle. Um
das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der
ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte.
Aus
praktischen Gründen werden
"Zehnerpotenzen" exemplarisch wie folgt
geschrieben: 1,23·10-3 = 1,23e-3. Das
hat den Vorteil, daß der interessierte Leser die
entsprechenden Zahlenwerte "gleich" in den
"Computer" zur "Kontrolle" übernehmen
kann (Copy&Paste) Nehmen
wir an, daß die Masse des postulierten Elektron-Anti-Neutrinos ~2,2
eV/c2 beträgt. Das entspricht einer Masse von ~ 3,92e-36 kg
und einer Comptonwellenlänge von 3,59e-7 m. [M]
Für den Fall, das die kinetische Energie viel größer als die
Ruheenergie des Neutrinos ist, folgt für die de Broglie Materiewelle
λdeB (Ekin
»
E0) ~ h ·c / Ekin
. In diesen Fällen spielt die (Elektron-Anti-Neutrino)-Masse keine
Rolle. Der Beta-Minus-Zerfall des
Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß
Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen
W-Bosons stattfinden soll, führt im Extrem* zu einer (relativistischen)
Gesamtenergie des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht
~ 1,4e-30 kg. *im
Extrem bedeutet, daß Proton und Elektron nach der Umwandlung ruhen,
davon ist zwar praktisch nicht auszugehen, hier geht es aber gedanklich
um die Bestimmung der kurzwelligsten Neutrinomateriewelle gemäß zur
Verfügung stehender Energie. Daraus
ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem
relativistischen Faktor von γ ~ 3,55e5 (γ ~ Eges/E0)
und einer resultierenden De-Broglie-Materiewelle von ~ 1,59e-12
m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~
2,43e-12 m. Gemäß
Beta-Zerfall-(kinetische)Energie-Elektron-Spektrums müssen weitere
langwelligere Neutrino-De-Broglie-Materiewellen auftreten, die daraus
resultieren, das die zunehmende kinetische Energie im
Elektronenspektrum, den Neutrinos nicht zur Verfügung steht. Wie
bereits oben erwähnt, kann das vom SM postulierte
Elektron-Anti-Neutrino keine diskrete Gesamtenergie besitzen, da es nur
über die Schwache Wechselwirkung agiert. Das bedeutet, daß reziprok
zum Energiespektrum der Elektronen ein Energiespektrum des
Elektron-Anti-Neutrinos bereits bei der Schwachen Wechselwirkung, sprich
bei der Umwandlung eines d-Quarks in ein u-Quark, auftritt, gleichgültig
welche Masse das Elektron-Anti-Neutrino besitzt. Losgelost
vom Betazerfall besitzen alle bewegten massebehafteten Neutrinos,
ungeachtet ihrer postulierten Entstehung, Materiewellen. Nun zu
behaupten, es gäbe u.a. kontinuierliche kosmische Neutrinoströme, die
nicht wechselwirken, widerspricht dem Konzept der Materiewelle. Gäbe es
massebehaftete Neutrinos, so würde die Materienwellen assoziierte
(kinetische) Energie dieser letztendlich auf vielfältige Weise dazu führen,
daß uns allen sehr heiß werden würde. De
Broglie
Materiewellen sind interferenzfähig. Die
einzige Möglichkeit der Neutrinomacher aus diesem phänomenologischen
Neutrinodesaster neutrinogläubig zu entkommen, ist die De-Broglie-Materiewelle
für Neutrinos als nicht existent zu erklären.
Wie
bereits erwähnt, ist die Wellenlänge einer
(relativistischen) Materiewelle nicht von der
Massenuntergrenze abhängig, wenn die Gesamtenergie,
wie im Fall der Neutrinos, aus dem "Laborsystem
entführt" wird. Nehmen wir an, daß die
Massenuntergrenze - wie in einem Artikel der
Max-Planck-Gesellschaft angegeben (https://www.mpg.de/443025/forschungsSchwerpunkt1)
- eines Neutrinos bei 0,05 eV/c2 liegt.
Wir ersetzen nun die Masse des
Elektron-Anti-Neutrinos von ~ 2,2 eV/c2 durch
die Massenuntergrenze von 0,05 eV/c2. Das
entspricht einer Masse von ~ 8,9e-38 kg. Daraus
ergibt sich dann ein nahezu „lichtschnelles“
Neutrino mit einem relativistischen Faktor von
γ ~ 1,56e7 (γ ~ Eges/E0)
und einer resultierenden De-Broglie-Materiewelle von
gleichfalls ~ 1,58e-12 m.
Randnotiz
Magnetisches Moment der Neutrinos
In
einfachen Worten: Ein magnetisches Moment der
Neutrinos ist aus mathematischen Gründen im Rahmen
des Standardmodells „verboten“. Nicht mehr und
nicht weniger ist diesem „Gebot“ zu entnehmen.
Es existierten aber keine Experimente, die ein
magnetisches Moment der Neutrinos ausschließen.
Zum
„Kennenlernen der Situation“ siehe z.B. NeutrinoMagneticMoment,
Magnetic
Moments of Dirac Neutrinos,
Auch
bei der „denkbaren“ Betrachtung eines
magnetischen Moments des (massebehafteten) Neutrinos
werden die fundamentalen Wechselwirkungs-Aspekte
unter einem Berg von willkürlicher Mathematik
begraben. Ein magnetisches Moment eines Neutrinos würde
zwar im isolierten Laborexperiment auf Grund der
postulierten „Kleinheit“ nicht messbar sein aber
im Rahmen kosmischer Dimensionen auf eine Vielzahl
von Wechselwirkungspartnern treffen. Sämtliche
Materieansammlungen interagieren
"massenhaft" in der Detailsicht mit dem
magnetischen Moment des Neutrinos. Hier stellen sich
übergeordnet „Wesensfragen“? Ist die Masse
eines postulierten Quarks eine andere als die Masse
eines Elektrons oder die Masse eines Neutrinos? Ist
die Wechselwirkung des magnetischen Moments eines
Neutrinos „irgendwie anders“ als die des
magnetischen Moments eines (postuliert Quarks
basierenden) Protons oder Elektrons?
Eine
grundsätzliche Standardmodell-Fiktion besteht in
der Annahme, daß Masseträger unterschiedlichen
mathematischen Regeln folgen müssen. Diese Regeln
werden dann in vermeintlich physikalischen Theorien
zusammengefasst. Doch keiner dieser theoretischen
Ansätze ist auf Grund der Vielzahl von freien
Parametern und postulierten, nicht beobachtbaren
Theorieobjekten physikalischer „Natur“. Das
Standardmodell ist eine Ansammlung von
philosophischen Modellvorstellungen, die Erweiterung
des Standardmodells, wobei Neutrinomassen als
brachiale Erweiterung und Supersymmetrie als
„Standardmodell-Killer“ verstanden werden müssen,
"verschärft" diesen Aspekt noch
wesentlich. Die „Standard-Konzeptansicht“ war
und ist erkenntnistheoretisch zum Scheitern
verurteilt, da, einfach gesprochen, schlicht keine
verbindliche Phänomenologie der Masse, des Raumes
oder der elektrischen Ladung existiert.
Wie
„einfach“ und „unerwartet“ moderne
epizyklische Standardmodell-Fantasien sich in Nichts
auflösen wird anhand der vermeintlich anomalen
magnetischen Momente eindrucksvoll verstehbar
aufgezeigt. Die postulierte Substruktur des Neutrons
und Protons zerbröselt an der
realobjekt-orientierten Deutung der Meß-Realität
im Rahmen der Elementar-Verkörperung. Siehe das
erkenntnistheoretisch freundliche Kapitel Betrachtungen
zur Anatomie anomaler
magnetischer Momente
Es
erübrigt sich die Bemerkung, daß es, wie könnte
es auch anders sein, keine direkten
Delta-Baryonen-Nachweise gibt.
Es
existieren gemäß SM vier verschiedene Δ-Baryonen
mit Spin3/2 und folgenden Ladungsmöglichkeiten:
Δ++, Δ+, Δ0,
Δ−. Die asymmetrisch gestückelten
Quarks-Ladungen bilden in Form der Δ++
also Ladungsträger mit zweifacher Elementarladung.
...Übersetzt
in die reale Welt heißt das soviel wie: Wissenschaft
ist das, worauf man sich geeinigt hat... anything
goes. Das
Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich
zu den Neutrinopostulaten experimentell gesichert und experimentell
reproduzierbar. Materiewellen
sind experimentell nachweisbar. Die "Sache" der Neutrinos hat
sich mit "Anerkennung" der Neutrino-Oszillationen, die
Neutrinomassen voraussetzen, erledigt. Ironie
des Neutrinoschicksals: Quantenmechanik und ein klassisch
verstehbares Konzept (Bragg & Co lassen grüssen) lösen das
Neutrino in erkenntnistheoretisches Wohlgefallen auf. Die
Theorie der Schwachen Wechselwirkung und alle damit assoziierten
theoretischen Implikationen, Theorieparameter, Vektorbosonen, ...sind
(mehrdeutig) gegenstandslos. Glücklicherweise
ist im Rahmen eines masse-radius-gekoppelten Denkmodells die Umwandlung
von einem masseschwereren zu einem masseleichteren Körper ohne Neutrino
verstehbar. Konkrete Ausführungen folgen im Rahmen der anschließenden
Langversion zur Neutrinothesen-Widerlegung. Neugierige klicken hier "frühes"
SM Mit
den argumentativ haltlosen Quark-Entitäts-Postulat als
Elementarteilchen, nicht messbaren Teilchen-Eigenschaften,
willküraffinen Ergänzungspostulaten (Gluonen-These,
Sea-Quarks-Postulat, postulierte Wechselwirkungen) und
Confinement-These werden gleich mehrere Wissenschaftsnormen und das
Minimalprinzip brachial verletzt. Bereits mit dieser kurzen
"Quark-Analyse" fehlen dem SM alle Charakteristika Bestandteil
einer exakten Wissenschaft zu sein. Schon aus diesen Gründen ist das
Quarks-basierende Standardmodell der Elementarteilchenphysik ein
(schlechter) Witz. Noch "witziger" sind die Leute, die diesen
naturphilosophisch feindlichen Theorie-Murks glauben und verbreiten. Und
auch die nicht SM-involvierten fehlenden Kritiker sollten zu denken
geben. Woher kommt diese generationenübergreifende Arroganz bzw.
Ignoranz? Offensichtlich sind hier existenzielle Ängste "am
Werk". Wie naiv muss man sein, allen Ernstes zu glauben, daß
dieser »Quark« aufrechterhalten werden kann. Der epizyklische
SM-Absturz kommt, "Quark-Analyse", Proton-Desaster und
Neutrino-Denkmodellunfall sind erste Hinweise auf das, was da noch
kommt... Es folgen weitere dokumentierte
Beliebigkeiten und Belanglosigkeiten, die vom System
(pseudo-)axiomatisch sowie populärwissenschaftlich als große
Wissenschaft verkauft werden.
Die (Un-)Art der stark theoriebeladenen Messungen und
gekoppelten "Theorie-Entwicklungen" war und ist aber nur möglich,
weil keines der postulierten und dann vermeintlich gefundenen
„Teilchen“ direkt messbar ist. Der thematisch und experimentell
nicht involvierte, naive Wissenschaftler ging jedoch davon aus, daß es stets
verbindliche Messungen gegeben hat, die gemäß wissenschaftlichen
Standards die Behauptung einer Teilchenexistenz und dessen
Teilcheneigenschaften rechtfertigten. Das war und ist aber in keinem Fall der "Beschleunigerphysik" so (gewesen). Die
Unmöglichkeit einer direkten Messung ist inhärent mit dem
Standardmodell der Teilchenphysik verknüpft.
Beispiel LHC
(Large Hadron Collider):
Die Datenmenge bestehend aus aufgezeichneten
Detektorsignalen und Computersimulationen wird auf 15 Millionen
Gigabyte pro Jahr geschätzt. Die Datenmenge wäre extrem größer,
wenn nicht auf Hard- und Softwareebene ein Großteil der Messsignale
bereits vor der Verarbeitung dauerhaft verworfen würde. Die
Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1
bis 2 MB pro Ereignis. Insgesamt resultiert aus den Kollisionen ein
Informationsstrom in der Größenordnung von 100 TB pro Sekunde. Durch
ein Selektionssystem - Trigger genannt - werden von 40 Millionen
Strahlkreuzungen pro Sekunde lediglich 200 Ereignisse pro Sekunde
aufgezeichnet. Das bedeutet schlicht und ergreifend, daß nahezu das
gesamte Ereignisspektrum bewusst ausgeblendet wird. Die Bemerkung Albert
Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was
beobachtbar ist", "entfaltet" sich somit im
Standard-Betrieb eines Teilchenbeschleunigers auf extreme Art und Weise.
Zur
Verdeutlichung: Die Detektoren messen kalorisch, mittels Photonenimpuls
oder teilchenspezifisch. Man unterscheidet beispielsweise zwischen elektromagnetischen
und hadronischen
Kalorimetern. In elektromagnetischen Kalorimetern erzeugen Elektronen
bzw. Photonen durch Bremsstrahlung und Paarerzeugung eine
Teilchenkaskade, und ein Teil der Teilchenenergie kann in Form von
Szintillationslicht oder Ionisation nachgewiesen werden. Das Energieauflösungsvermögen
hadronischer Kalorimeter ist sehr viel schlechter als das der
elektromagnetischen, zur Verringerung der nachweisbaren Energie trägt
z.B. bei, daß bis zu 20 % der (postulierten) hadronischen Energie zum
Aufbrechen der Kernbindungen aufgewendet wird. Bei einer einzigen
Strahlkollision mit „üblicherweise“ 1011 Protonen pro
Teilchenpaket finden im Mittel etwa 10 Ereignisse statt, in denen
jeweils eine Vielzahl von Teilchen entstehen. Aufgrund des geringen
Kollisionsabstandes von 25 ns, befinden sich diese Teilchen größtenteils
noch im Detektor, während die nächste Kollision bereits neue Teilchen
produziert.
„Teilchenphysik für Fortgeschrittene“ Seite 68…
„In der e+e- -Streuung werden in 10 % der Fälle
nicht nur zwei sondern 3 Jets beobachtet, wobei die Winkelverteilung der
Jets untereinander mit der Erwartung für die Abstrahlung eines Spin 1
Teilchens (“Gluon”) von einem Spin 1/2 Teilchen (Quark) übereinstimmt.
Auf diese Weise wurde das Gluon am PETRA Beschleuniger bei DESY
entdeckt.“...
[Hier
„sieht“ man exemplarisch, wie aus einem „objektiven“
Versuchsergebnis ein vollkommen subjektives Interpretations-Ergebnis
erhalten wird. 10% Ereigniswahrscheinlichkeit fallen vom Himmel und ohne
Gluonenpostulat widerlegt das Versuchsergebnis schlicht die Theorie der
Quarks. Nach diesem Muster werden theoriebeladen alle „abweichenden“
Versuchsergebnisse „interpretations-gestrickt“.]
…“Die
Häufigkeit von etwa 10% dieser 3-Jet Ereignisse deutet auf eine große
Kopplungskonstante zwischen Quarks und Gluonen hin“, … [10% fielen
vom Himmel und das Versuchsergebnis wird aus Sicht der Selbst-Gläubigen
mit einer variablen Kopplungskonstante theoriefreundlich versehen.]
…„Teilchenphysik für Fortgeschrittene“ Seite 78… „In der
4-Jet Produktion ist der Wirkungsquerschnitt sensitiv auch auf die
Selbstwechselwirkung der Gluonen, da sowohl die Quarks als auch Gluonen
weitere Gluonen abstrahlen können.“…[Diese Art der
selbstprophetischen Argumentation ist offensichtlich nicht widerlegbar.]
Postulierte Existenz und postulierter
Zerfall des Top-Quarks Die
Willkür und letztendlich der naturphilosophische Selbstbetrug besteht in der transparent
vorliegenden theoriebeladenen Deutung des Experimentes. Konkret werden
als Versuchs-Ergebnisse der Proton-Antiproton-Kollision ausschließlich
kalorimetrische (energetische) und leptonische Ergebnisse „gezählt“.
Alle anderen von der Standardphysik genannten (teils postuliert
hadronischen) Prozess-Teilchen sind hypothetisch gedachte
(Materie)-Konstrukte. Ausser dem Glauben an diese im Rahmen eines
mathematischen Denkmodells, gibt es keine direkten messtechnischen
Ereignisse. Das Denkmodell als solches ist aus vielerlei Gründen
widersprüchlich, inkonsistent und stets quantitativ beliebig.
Insbesondere der Übergang von „quarks-basierenden Zuständen“ zu
„leptonischen Gebilden“ geschieht mittels der postulierten Schwachen
Wechselwirkung. Diese ist zwar im Rahmen des SM eine zwingende
zusatztheoretische Annahme, außerhalb des Standardmodells jedoch nichts
weiter als ein „Theorieretter“.
1…"Die
entstehenden Teilchen bzw., im Fall von Quarks, deren Zerfallsprodukte
(als Jets), werden in den beiden Detektoren nachgewiesen… Die Spuren
der geladenen Teilchen werden in der Spurkammer aufgezeichnet,
Elektronen/Positronen und Photonen im elektromagnetischen Kalorimeter
nachgewiesen, die Teile der Jets im Hadron-Kalorimeter und zuletzt die
Myonen in den Myonenkammern. Neutrinos bleiben wegen ihrer geringen
elektroschwachen Wechselwirkung unbeobachtet; der transversale
Gesamtimpuls aller Neutrinos kann nur indirekt üb er den fehlenden
transversalen Impuls (Impulserhaltung) festgestellt werden."...
[Es gibt bis heute nicht einen einzigen direkten
Neutrinonachweis. Des Weiteren: Reproduzierbarkeit ist ein fundamentales
Kriterium für mögliche Falsifizierbarkeit. Diese elementare
Notwendigkeit wird vom SM u.a. im Zusammenhang mit Neutrinos mit Füssen
getreten.] Am Rande bemerkt: Neutrinos stehen
nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem
Neutrino einen hochrelativistischen, somit nahe an der
Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen
Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt.
Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen
Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als
„neue Entität“ auszeichnet. Für den Zerfall von massereicheren zu
masseärmeren Teilchen, wie beim Myonen-Zerfall - der zum Elektron führt
- werden Neutrinos zur Erklärung nicht benötigt. Details siehe das
Kapitel Neutrinos
1Der
Impuls in Flugrichtung der Protonen/Antiprotonen kann nicht festgestellt
werden, da aufgrund der Quark- und Gluonstruktur der
Protonen/Antiprotonen der Impuls der Top-Antitop Reaktion in
Flugrichtung nicht bekannt ist."...
[Das bedeutet schlichtweg, daß das
Experiment unvollständig ist und im Resultat als wissenschaftlicher
Nachweis unbrauchbar ist.]
1Zur
Nachweiseffizienz der einzelnen Teilchen: Jets von Gluonen und
leichteren Quarks sind mit nahezu 100% Effizienz nachweisbar, Elektronen
und Myonen mit ungefähren 90 %. Tauonen zerfallen entweder leptonisch
(36% der Fälle) oder hadronisch (64%). Wegen der beiden entstehenden
Neutrinos ist der erste Fall kaum nachweisbar, letzterer auch nur mit
50% Effizienz und dabei, u.a. wegen des entstehenden Neutrinos, nur
schwer vom Untergrund unterscheidbar; insgesamt lässt man wegen dieser
Schwierigkeiten im Allgemeinen Kanäle mit Tau-Leptonen aus der
Betrachtung heraus."...
[Hier wird das komplexe
Desaster deutlich. Es
gibt weder experimentell entkoppelte, „gesicherte“ theoretische
Voraussagen für die experimentellen Wahrscheinlichkeiten, im
Zweifelsfall wird das „unmessbare“ Neutrino bemüht und wenn das
auch nichts hilft, wird „souverän“ auf einen Teil des
Versuchsergebnisses verzichtet.]
1…"Am wichtigsten
ist der Nachweise der Bottom-Quarks, da sie sehr charakteristisch für
Top-Ereignisse sind. Bottom-Quarks hadronisieren fast sofort in
B-Mesonen, die im Mittel ungefähr 0.5 mm vom Haupt-Vertex entfernt in
einen Jet zerfallen. Die Bestandteile des Jets sind dann auf den
gemeinsamen, im Vergleich zum Haupt-Vertex versetzten Ursprung zurückzuführen.
Man nennt dies Bottom-Markierung / B-Markierung oder b-tagging.
Alternativ zerfallen Bottom Quarks (20% der Fälle) in unter anderem ein
Lepton, das einen niedrigeren Impuls als das Lepton aus dem Zerfall des
W- Bosons hat. Zusammen beträgt die Nachweis-Effizienz für Bottom
Quarks ungefähr 60%."...
[Vorliegende Angaben sind außerhalb des
Standardmodells ohne Relevanz. Jedwede andere Theorie ließe sich mit
freien Parametern, variablen Kopplungskonstanten und
Substruktierungsthesen den Teilchenbeschleuniger-Ergebnissen anpassen.] 1Textauszüge
Seite 5 und 6/Quelle:
http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf
2…"die
Ungenauigkeiten in der absoluten Energieskala sind relativ groß,
weshalb die Jet-Energien ungenau bestimmt werden. Z. B. kann aber auch
ein Jet durch das Strahlrohr verloren gehen. Dann gibt es Probleme, die
eher mit dem Prozess als solchen zu tun haben: Die Reste des Protons und
des Antiprotons bilden einen recht großen Untergrund, und sie können
zu Einflüssen auf die Messungen beim Hauptereignis führen. So können
zwei Jets als einer gemessen werden (der zweite beispielsweise
resultierend aus Untergrundprozessen); aber auch der umgekehrte Fall,
dass sich ein Jet in zwei Jets aufspaltet, kann auftreten. Die Effekte
zusammen können in außergewöhnlichen Gesamtereignissen resultieren,
in jedem Fall müssen sie als Fehlerquellen beachtet werden"… 2Textauszug
Seite 8 und 9/Quelle:
http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf
[Mit anderen Worten: Es ist völlig
egal wie das Experiment ausgeht, „unsere“ Theorie passt immer.]
Particle Physicists Continue To Make Empty
Promises
by Sabine Hossenfelder
Thursday, October 22, 2020
…quotes
…”particle physicists think it is a great problem that
theories which have been experimentally confirmed are not as
beautiful as particle physicists think nature should be.
They have therefore invented a lot of particles that you can
add to the supposedly ugly theories to remedy the lack of
beauty. If this sounds like a completely non-scientific
method, that’s because it is. There is no reason this method
should work, and it does as a matter of fact not work. But
they have done this for decades and still have not learned
that it does not work.
.. In
2004, Fabiola Gianotti, that’s the other author of the new
Nature Physics comment, wrote:
“[Naturalness] arguments open the door to new and more
fundamental physics. There are today several candidate
scenarios for physics beyond the Standard Model, including
Supersymmetry (SUSY), Technicolour and theories with
Extra-dimensions. All of them predict new particles in the
TeV region, as needed to stabilize the Higgs mass. We note
that there is no other scale in particle physics today as
compelling as the TeV scale, which strongly motivates a
machine like the LHC able to explore directly and in detail
this energy range.”
So, she claimed in 2004 that the LHC would see new particles
besides the Higgs. Whatever happened to this prediction? Did
they ever tell us what they learned from being wrong? Not to
my knowledge.
…Particle physicists, of course, are entirely ignoring my
criticism and instead call me “anti-science”. Let that sink
in for a moment. They call me “anti-science” because I say
we should think about where to best invest science funding
If the rest of particle physicists doesn't speak up and
instead allows their spokespeople to propagate nonsense,
they are equally guilty. Giudice and Gianotti aren't anyone.
They're the leading people of the world's leading particle
physics institution.
Of course all the people who work on not "freaky" things
have a reason to allow this to happen. Because without the
big claims about new and exciting things, no one would fund
their research, and they all know that. Sabine
Hossenfelder
Have there been people who claimed they made predictions for
"quantum gravitational" effects which were later not found?
Yes. Craig Hogan and Lee Smolin spring to mind. What was
wrong with those predictions? Same thing that's wrong with
the predictions by particle physicists: They invented models
pretty much for the purpose of being testable, models that
didn't solve any problem.
This is why I have been preaching that history teaches us
promising theoretical predictions were based on theories
that solved an inconsistency. I am not saying "work on
quantum gravity because quantum gravity is good". I am
saying "solve an inconsistency regardless of which". It just
happens to be the case that there isn't any inconsistency
within reach of a next larger collider. Sabine
Hossenfelder
Zum
Mitdenken
Natur kann nur addieren oder subtrahieren.
Eine „gesicherte“ höhere
mathematische Realität existiert ausschließlich im Rahmen
axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte
mathematische Struktur (höhere
mathematische Realität) physikalisch anwendbar ist, lässt sich mit
den „Mitteln“ der Mathematik nicht entscheiden (siehe
„unstrittig-exemplarisch“ Epizykeltheorie und
Banach-Tarski-Paradoxon). Es gibt beispielsweise keine physikalische
Grundlage für die Herleitung der Feldquantisierung.
Quantenfeldtheoretische Betrachtungen sind „realobjektbefreite“
mathematische Denkmodelle. Mathematik erfasst letztendlich Mengen und
kann nicht zwischen Staubsauger und Staub unterscheiden.
Parametrische
Glaubensbekenntnisse
Die
"moderne" Elementarteilchenphysik "nährt(e)" sich
von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin
wird so "kreativ" postuliert, "entdeckt" und
"modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt
aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der
eigenen Grenzen bestätigt, ist keine große Überraschung, da die
Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um
"alte" Thesen und Teilchen zu "retten".
Auch
wenn es verwunderlich scheint, daß es kaum auffällt, was eigentlich
jedem einigermaßen selbständig denkenden Menschen schon nach kurzem
Studium des Standardmodells auffallen müsste: Das Standardmodell der
Teilchenphysik kann nur existieren, solange es keine Lösungen liefert.
Das eine Theorie mit 25 freien Parametern nie Lösungen liefern wird,
sollte auch interdisziplinär verstehbar sein.
Der
mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend
von nulldimensionalen, masselosen Objekten liefert
offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität
in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.
Masselose Eichbosonen bewegen sich mit
Lichtgeschwindigkeit. Die
euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch
die ursprüngliche Formulierung "verletzt"1, zweitens stimmt die Aussage, das der
Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch
Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr
1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen
massegebenden Terme gar keine Massenberechnung beinhalten. Die
Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern
müssen als freie Parameter bekannt sein. Das bedeutet schlicht und
ergreifend, auch das „higgs-korrigierte“ Standardmodell der
Teilchenphysik kann weder Masse(n) erklären und schon gar nicht
berechnen. Die einzig der herrschenden Physik bekannte direkte
Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt
nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der
Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen
erfüllt sein:
Die Massen der rechts- und linkshändigen Fermionen müssen
gleich sein.
Das
Neutrino muß masselos bleiben.
Diese
Grundbedingung steht in einem eklatanten Widerspruch zu
Neutrinooszillationen (Nobelpreis 2015), die zwingend Neutrinomassen
voraussetzen. 1 Diese Aussage bezieht sich nicht auf die rein mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man "mit Stolz" einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der primär richtigen Wahl auf. Wenn man alle Terme in der Lagrangedichte
des SM berücksichtigt, die möglich sind (lorentzinvariante,
eichinvariante und renormierbare), existieren keine, die
Neutrinomassen beschreiben. Das liegt daran, daß das SM keine rechtshändigen
Neutrinos enthält. D.h. um Neutrinomassen zu beschreiben, muss man
entweder nicht-renormierbare Terme einführen, die dann auf
Majorana-Massenterme führen, oder man muss neue Freiheitsgrade einführen,
sprich rechtshändige Neutrinos. Beides würde über das SM hinausgehen
und zur Folge haben, daß Neutrinos ihre eigenen Antiteilchen wären
(Majorana-Neutrinos). SM-Postulat:
Es
existiert ein Higgs-Feld an jedem Punkt der Raumzeit, das an die W- und
Z-Bosonen und die Fermionen koppelt. Durch diese Kopplung erhalten diese
Teilchen Masse. Zusätzlich existiert ein massiver Freiheitsgrad des
Feldes, welcher als Higgs-Boson bezeichnet wird. Dieses ist jedoch nicht
als solches für die Massen verantwortlich, wechselwirkt aber mit den
Fermionen und Bosonen und kann somit erzeugt und gemessen werden.
Mit
anderen Worten: Es
gibt 3 verschiedene Arten von Termen, die das Higgs-Feld nach der
spontanen Symmetriebrechung enthalten: Kopplung des Higgs-Feldes an
Fermionen (Yukawa-Terme), Kopplung des Higgs-Feldes an die W- und
Z-Bosonen, kinetische- und Massen-Terme für das Higgs-Boson. Aber die
„Higgs-Terme“ sind eigentlich keine Massenterme, sondern
Wechselwirkungsterme. Erst nach der spontanen Symmetriebrechung
"simuliert" ein Teil des Higgs-Feldes „mittels“
Erwartungswert Ausdrücke, die wie Massenterme aussehen.
Ohne
Übertreibung kann man wohl „sagen“: Das widersprüchliche,
„axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch
nichts Reales erklären und schon gar nicht berechnen. Der
Higgs-Mechanismus "lebt" salopp formuliert zu 99% von
unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer)
Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch
die folgend postulierten "gluonenbasierenden"
Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden,
auch nicht beobachtbar sind.
Streng genommen ist der Umstand, daß das SM mittels
Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine
Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie
Parameter, variable Kopplungskonstanten und willküraffine
Substrukturierungen liefern über postulierte Verknüpfungszahlen
(Quantenzahlen) eine „Katalogisierung“ theoriefreundlich
selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen,
welche fast immer nur indirekt detektiert werden können. Die gesamte
Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu
beobachtender, postulierter
Teilchenbeschleunigerereignisse, wie noch ausführlich erörtert wird.
„Und nu“?
Auf
Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und
Inkonsistenzen, die selbst von SM-Gläubigen (an)erkannt werden, wünschen
die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“
schaffen. Die angestrebte theoretische Zukunft der
Standardmodellphysiker ist u.a. die Supersymmetrie (SUSY). Unter einer
Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie,
die eine Transformation zwischen Bosonen und Fermionen beschreibt.
Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet
aber bei schlichter Betrachtung u.a. die Aufhebung der
theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren
fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“,
derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger
scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das
„SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell
der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert
sondern demontiert. Ein erkennbarer Vorteil der SUSY-Forscher:
Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter
garantiert Vollbeschäftigung.
Ein
anderer – logisch durchaus nachvollziehbarer - nahe liegender Gedanke
ist, sich von den jetzigen Elementarteilchen (Quarks, Leptonen) zu
verabschieden und diese mittels so genannter Preonen
zu substrukturieren. Nur wenn Quarks und Leptonen jetzt schon
nulldimensional sind, welche „infinitesimale Steigerung“ haben dann
Preonen inne?
Soweit
zu den ersten „Auffälligkeiten“.
Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammen aus der Quantenmechanik (QM). Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.
Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, daß es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.
Zur
Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für
"richtig" hält, sagt nichts über den erkenntnistheoretischen
Wert der "Theorie zum Etwas".
Eine
Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind
Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft
mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut
dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes,
leicht zu beobachtendes Phänomen, sofern man sich mit
den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt.
Besonders
eklatant ist der Umstand, daß im Vergleich zu organisierten Religionen,
die Theoretische "Grundlagen-Physik der Teilchen" für sich in
Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu
verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die
Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten
Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft
vermutet.
Kurt Marti zeigt fragmentarisch auf, wie der Vatikan und CERN-Forscher
sich Hand in Hand die Glaubens-Zukunft der
Teilchenphysik und Kosmologie vorstellen.
…“Dem
Vatikan geht es nicht primär um Elementarteilchen
und Schwarze Löcher, sondern um Metaphysik. Mit
ihrem exzellenten Spürsinn für das scheinbar
Wesentliche haben die Theologen in Rom längst
begriffen, dass die Teilchen- und Astrophysik immer
mehr in der dünnen Luft der experimentfreien
Metaphysik operiert.“…
…“Auf
dem Gipfel der Macht und der Anerkennung werden
Menschen plötzlich gesprächig, kokettieren mit
ihren Tricks und kleinen Mogeleien, spötteln über
Ethik und Moral und brüsten sich ihrer Fähigkeit,
ein ganz spezielles persönliches Interesse mit
Hilfe von Manipulation und geschickter Propaganda
durchgesetzt zu haben. Manche Vermutung über das
wahre Wesen eines erfolgreichen Menschen findet
durch derart eitle Selbstenthüllung ihre Bestätigung,
vermag aber keineswegs die Machtposition des
Menschen zu erschüttern. Etabliert ist
etabliert.“[1]
Euphemistische
Botschaft der Deutschen Physikalischen Gesellschaft
(DPG):
...„Die
Deutsche Physikalische Gesellschaft soll
ausschließlich und unmittelbar der reinen und
angewandten Physik dienen. ...“
»Wahre
Botschaft« der Deutschen Physikalischen
Gesellschaft (2000):
"Die
Urknall-Kosmologie ist gewissermaßen die moderne,
physikalische Version der Schöpfungsgeschichte."[2]
[1] Als der Urknall Mode
war Erinnerungen an ein kurioses
Weltmodell
Klaus
Gebler 2005 ISBN
3-8334-3983-1
[2]
[1] Eine an alle höheren Schulen ausgelieferte
umfangreiche Denkschrift „PHYSIK – Themen,
Bedeutung und Perspektiven physikalischer Forschung,
ein Bericht an Gesellschaft, Politik und
Industrie“ im Jahre 2000 enthielt diesen denkwürdigen
Satz: „Die Urknall-Kosmologie ist gewissermaßen
die moderne, physikalische Version der Schöpfungsgeschichte.
...“
Didaktisch ist die herrschende
erkenntnistheoretische Leere seit
Jahrzehnten fester Bestandteil der Ausbildung. Der Denk-Monotheismus wird schon Schülern populärwissenschaftlich verordnet.
Sollten diese dann, trotz der immensen Indoktrination und gegen alle
Erwartung, das Quarks-basierende Protonenmärchen eines Tages
realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich
zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten,
wenn es nicht das Non plus ultra darstellt?
"Milliardenschwere" Teilchenbeschleuniger wurden und werden
doch nicht gebaut, wenn das Alles Unsinn ist? Diese
"psychologischen Komponenten" wiegen schwer.
Weitere
Standardmodelle
Beispiel
Geld: Die wenigsten Menschen wissen von der
Programmatik und Zielvorgabe des weltweit existenten
Giralgeld-Systems. Dieses ist so angelegt, daß es
zyklisch kollabiert. Wirtschaftskrise, Krieg oder
Wirtschaftskrise und Krieg führen zur Währungsreform
und letztendlich zur Verelendung und Enteignung der
arbeitenden Klasse. Nach dem "Reset" gibt es
wieder "Fleißige", die den nächsten Zyklus
vorantreiben.
Der
(nächste) Kollaps ist nicht durch eine Verkettung von
unglücklichen Zuständen entstanden sondern
Giralgeld-System-inhärent. ...zu diesem tragikomischen
Thema gibt es sehr informative, unterhaltsame
online-Video-Ausführungen auf youtube
Konkretes
zur Orientierung... Hummes
Dilemma – oder : Was ist Geld? „Geldschöpfung“
der Banken als Vermögensrechtverletzung
von Michael Köhler, em. Professor für
Strafrecht, Strafprozeßrecht und Rechtsphilosophie an
der Universität Hamburg
…„Anders
als viele Menschen meinen, wird heute die wichtigste
Geldart, das Giral- oder Buchgeld, durch private Geschäftsbanken
geschaffen und in Umlauf gebracht. Das Geld auf unseren
Bankkonten stammt also nicht von der Zentralbank, obwohl
diese das alleinige Recht hat, gesetzliche
Zahlungsmittel zu schaffen“… siehe Webseite des Vereins
Monetative e.V.
Die Wissensmanufaktur ist ein unabhängiges
Institut für Wirtschaftsforschung und
Gesellschaftspolitik. Unsere Unabhängigkeit von öffentlichen
Geldern sowie von der Gunst von Werbekunden,
Auftraggebern und den Eigentümern der Massenmedien ermöglicht
uns eine ergebnisoffene Forschung und auch die Veröffentlichung
von Ergebnissen, die nicht der „political
correctness“ entsprechen. Webseite:
http://www.wissensmanufaktur.net/
Beispiel
Politik: Eine parlamentarische Demokratie ist
indirekt, hierarchisch und führt nach einer kurzen
Entwicklungsphase stets zu einer Zementierung der Macht
und zu einer Interessensättigung. Zu süß sind die Früchte
der Lobbyisten. Es macht zeitgenössisch keinen
Unterschied wer oder was gewählt wird. Der "freie
Parameter" ist, wenn nichts mehr geht, die große
Koalition. Natürlich kann jeder eine neue Partei gründen.
Nur wie viele Stimmen sind notwendig um eine große
Koalition zu "stürzen"? Bevor dies geschieht,
kommt es in der Regel zur systemerhaltenden Assimilation
der "zu-wenig-Prozent-Störer". Früher oder
später, wertfrei und exemplarisch werden aus vormals
"RAF-Anwälten", "Grüne" die sich
zu systemkonservativen Innenministern entwickeln.
Vermehrt werden aus Politikern der
"Volksparteien", die zeitgleich Aufsichtsräte
in Wirtschaftsunternehmen sind, häufig nach der
"politischen Karriere", selbst
Wirtschafts-Lobbyisten.
Moderne
Zahlenspiele
Wäre
das Schicksal von Burkhard Heim (1925 - 2001) weniger
tragisch, könnte man Heims Massenformeln zur Berechnung
von postulierten und vermeintlich experimentell bestätigten
Elementarteilchenmassen des Standardmodells (SM) als fröhliches
Musterbeispiel für die selbstprophetische Natur der
„Modernen Theoretischen Physik“ verstehen.
Burkhard
Heims Ansatz wird als 6-dimensionale polymetrische
Strukturquanten-Theorie bezeichnet, die eine
geometrische Struktur der Elementarteilchen offenbart. Heims
Massenformeln wurden Anfang der 1980er Jahre am DESY
programmiert und „gerechnet“ und laut Aussagen der
DESY-Mitarbeiter Dr.Schmid und Dr.Ribgen als
„beachtlich“ eingestuft. Nur war Heim in vielerlei Hinsicht ein Außenseiter. Die
Anerkennung der Heimschen Theorie hätte das Aus anderer
Theorieansätze bedeutet und konsequent gedacht, die bis
dahin vorgestellten theoretischen Arbeiten der
SM-Physiker als falsch identifiziert. Des Weiteren wären
bestehende und daraus folgend heutige mathematische Ansätze
überflüssig. Auch die Urknall-Theorie ist nach Heims
Theorie ein Märchen.
Um
es auf den Punkt zu bringen: Heims 6-dimensionales
mathematisches Konstrukt liefert(e) Massenwerte und
Lebensdauern von experimentell beobachteten
Teilchenbeschleuniger-Resonanzen.
Das war und ist für den „Rest“ der Theoretischen
Elementarteilchenphysiker“ gefährlich und existenzgefährdend.
Es verwundert also nicht, daß Burkhard Heim kaum Erwähnung
fand und letztendlich in der Versenkung verschwand.
Der "Heim-generierte" erkenntnistheoretische Wert liegt
letztendlich in der Aussage, daß 6 Dimensionen das
Standardmodell der Teilchenphysik ordnen. Jedoch liefern
die von Heim verwendeten Formeln im Detail nichts außer
Gleichungsfragmente, die so arrangiert sind, daß Übereinstimmungen
mit Teilchenbeschleuniger-Ergebnissen erzielt werden können.
Der erkenntnistheoretische Wert für den kritischen
Beobachter begründet sich durch die mehr oder weniger
transparente Gestaltung der Heimschen Gleichungen. Es
wird exemplarisch deutlich, wie mathematische Konstrukte
funktionieren, ohne auch nur eine Spur von Erkenntnis zu
generieren. Die menschliche Komponente der SM-Aktivisten
und die Methodik des Verschleierns werden am Beispiel
Burkhard Heims überdeutlich. Ein besserer theoretischer
Ansatz als der eigene wird als emotionale Katastrophe
verstanden, der im Rahmen der eigenen Forschungspläne
banalisiert und unterdrückt werden muß.
Beispiel
SdAEV Viele
Menschen können sich nicht vorstellen, wie unglaublich
realitätsverleugnend politisch Verantwortliche in
Tateinheit mit Wissenschaftlern agieren und durch omnipräsente
Dauerpropaganda Bürger bewusst getäuscht werden. „Die
Förderung erneuerbarer Energien wird einen Haushalt nur
einen Euro im Monat kosten – so viel wie eine Kugel
Eis.“ verkündete 2004 der damalige deutsche
Umweltminister, Jürgen Trittin. In Wirklichkeit hat
sich die monatliche Stromrechnung für deutsche
Haushalte seit 2000 etwa verdoppelt. Elektrizität ist
in Deutschland für Konsumenten mit fast 30 Cent je
Kilowattstunde sogar um die Hälfte teurer als im
Hochpreisland Schweiz [1]. Und
diese staatliche Volksverdummung geschieht, obwohl die
Faktenlage - öffentlich einsehbar - sachbezogen
dokumentiert ist. Wer also glaubt, daß die
Standardmodelle der Theoretischen Physik eine
Berechtigung haben, weil sich nahezu alle „führenden“
Wissenschaftler dort tummeln, hat wesentliche Aspekte
der vermeintlich „gemeinnützigen
Meinungsbildung“ nicht verstanden. Ob CERN oder
exemplarisch die deutsche „alternative
Energiepolitik“, nicht der Wunsch nach
Erkenntnisgewinn oder praktischem Nutzen geben hier den
Ton an, sondern letztendlich die von der Allgemeinheit
subventionierten Nutznießer selbst, die konträr zur
empirischen Gewissheit, Fakten leugnen und haltlose
Aussagen verbreiten. Der Erhalt der Macht- und
individuellen Versorgungsstruktur steht über Allem
anderen. Kritiker werden ignoriert, wenn nötig
diskreditiert. Servile System-Medien verkünden und
bewerben jeden denkmodell-theoretischen und
anwendungstechnischen Mist der herrschenden
Standardmodelle. Wie eindeutig die Beweislage ist,
verdeutlicht exemplarisch die Situation des Standardmodells
der deutschen alternativen Energiepolitik
(SdAEV). Während
der Frostwetterperiode wurden im Zeitraum 16. bis 26.
Januar 2017 von den über 26.000 Windenergieanlagen mit
einer installierten Nennleistung von 50 Gigawatt nur
minimale Leistungseinspeisungen für die Stromversorgung
bereitgestellt. Kernenergie-, Kohle- und Gaskraftwerke
übernahmen fast vollständig die Stromversorgung in
Deutschland [2]. Wer
es noch genauer braucht um den gelebten Irrsinn zu
begreifen: Am 24.1.2017 um 7.00Uhr war die
Stromnachfrage (Netzlast) 70 GW hoch. An Photovoltaik
und Windkraftanlagen sowie Wasserkraft standen rein
theoretisch 89,5 GW Kapazität zur Verfügung. Die
tatsächliche Erzeugung am 24.1.2017 um 7.00Uhr von
Photovoltaikanlagen lag bei Null, die der
Windkraftanlagen bei 0,8 GW. Die thermischen
Kraftwerke, vornehmlich Kohle, Gas und Kernkraft waren
hoch ausgelastet und gewährleisteten die
Versorgungssicherheit.[3] Dieses
Beispiel zeigt, ohne Wenn und Aber, die brachiale
Wahrheit, daß die deutsche Stromversorgung zwingend
zwei Systeme erfordert. Ohne „konventionelle“
regelbare und jederzeit verfügbare Kraftwerke, gäbe es
gar keine parallele alternative Energieversorgung,
diese jedoch hatte und hat ohne lokal vorhandene
Energiezwischenspeicher keine Daseinsberechtigung. Das
Standardmodell der deutschen alternativen
Energieversorgung ist untauglich. Wenn man das nun
mit der Lügen-Propaganda der Macher und Nutznießer des
SddAEV und der tendenziell positiven Volksmeinung
vergleicht, wird klar wie katastrophal ausweglos die
Situation mittlerweile ist.
„Wertfrei“
betrachtet: Politiker schlagen „Strategien“ vor,
Experten beurteilen diese, Industrie-Manager entscheiden
(sofern es sich um Industrieprozesse
privatwirtschaftlicher Unternehmen handelt), die
„angestellte Basis“ setzt um. Das Volk bekommt
letztendlich, was es “verdient“ hat. Das ist
mehrdeutig zu verstehen. Wann die Schmerzgrenze erreicht
ist und die Basis sich kollektiv verweigert, „steht in
den Sternen“. Bildung und Sach-Aufklärung sind von
Vorteil um Argumente verstehen und vortragen zu können.
Doch diese gibt es bewusst nicht von den jetzigen
„Nutznießern der Ungebildeten“. In Sachen
Energiepolitik kann man wählen was man will oder nicht
wählen, es wird sich nichts ändern, da auch die zukünftige
politische „Opposition“ (es darf gelacht werden)
mehrheitlich den gleichen ideologischen Unsinn
propagiert.
Hier
stellt sich unweigerlich die Sinnfrage, wie es möglich
war/ist, daß ein Energieversorgungssystem mit dem
faktischen Wissen der Unmöglichkeit des praktischen
Betriebes konzipiert und fatalerweise umgesetzt wurde.
Das bedeutet aber auch, daß die projektinvolvierten
Wissenschaftler, Ingenieure und Techniker entweder keine
„Stimme“ haben oder ihnen „Alles“ egal
ist, solange jemand ihre Arbeit vergütet.
Genauer
betrachtet sind es die entscheidungsmächtigen
„Kaufmänner“ der Energiekonzerne, die ihr
(technisches) Personal befragen und dann instruieren,
letztendlich mit der finalen Gewissheit, daß die
„geplante“ Technik nie zu einer effizienten, noch
nicht einmal annähernd, ausreichenden Stromversorgung führen
wird.
Hatten
denn zumindest die technisch "Aufgeklärten"
des
SdAEV eine "moralische"
Verpflichtung gehabt, die Umsetzung des Vorhabens zu
verhindern, indem sie vehement die Wahrheit über alle
erdenklichen Medien kundtun bevor es zu spät war. Die
schlichte Antwort ist, ja, die hätten sie gehabt, aber
aus rein egoistischen, materiell-existentiellen Motiven
heraus, geschah dies nicht, lassen wir mal den ein oder
anderen Einzelfall außer Betracht. Losgelöst davon, wäre
es nicht Aufgabe der Wissenschaftsredaktionen gewesen,
das nutzlose SdAEV in Grund und Boden zu schreiben? Es
macht ergebnisorientiert keinen Unterschied ob die
Herren und Damen der Redaktionen unqualifiziert sind
oder auch hier über Werbe-Verbindungen zwischen
Magazin, Politik und Industrie nicht den Ast absägen,
auf dem sie sitzen.
Da
es sich bei der Stromnetz-„Wissenschaft“ um eine
anwendungsorientierte Technik handelt, deren
Systemparameter seit mehr als einem Jahrhundert gut
bekannt sind, sollte man sich auch die Frage stellen,
inwieweit der gezielte Einsatz bekannterweise
nichtfunktionierender Technik strafrechtlich relevant
ist, da neben der materiellen Bereicherung der
„Nutzlostechnik-Profiteure“ im Rahmen des
Zum
Mitdenken: Beim SdAEV handelt es sich um ein - bezüglich
der Konzeption und in der Wirkung - leichtverständliches
Standardmodell mit direkten Beweisen. Die
Standardmodelle der Physik (Lambda-CDM-Modell und
SM) und deren (mathematische)
„Erweiterungen“, wie Supersymmetrie (SUSY) oder
Stringtheorie können nicht einen einzigen direkten
experimentellen Nachweis postulierter Theorieobjekte
erbringen! In zahlreichen Wissenschaftsshows und
Wissenschaftsmagazinen rund um den Globus wird gebetsmühlenartig,
hübsch aufbereitet, der bare Unsinn bezüglich der
Materiebildung und Materiewechselwirkung verbreitet.
Egozentrik, Macht- und Habgier der Standardmodellmacher
werden u.a. über milliardenteure wissenschaftliche
Kathedralen, wie den LargeHadronCollider (LHC), verkündet
und das gläubige, unwissende Volk befruchtet diese erkenntnis-impotente
Wissenschaft mit Anerkennung und Beifall.
Erweiterte
Betazerfall - Utopie: Zwei down-Quarks und ein up-Quark
schwach wechselwirkend an der Nasenperipherie oder doch nur
eine (neu)expressionistische Gesichts-Komposition? In jedem
Fall ein ADF-Kunst-Produkt (noview phead 42ndf)
Standardmodelle einst und heute
Sowohl
die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der
Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und
Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw.
Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien
Parametern, war mathematisch „richtig“, phänomenologisch falsch und
die Objekte der Beschreibung waren (sind) sichtbar. Das SM arbeitet mit 25
freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen,
theorieinduzierten nicht realen Objekten und keines der postulierten
Theorie-Objekte ist sichtbar (direkt messbar).
Geozentrisches
Weltbild
Die
Erde steht im Zentrum des Kosmos, die Himmelskörper
bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die
Bahn des Mars nicht eine einfache Kreisbahn um die Erde
sein, denn die Bahn zeigte unerklärliche Schleifen, also
stellenweise eine Rückwärtsbewegung. Um das Dogma von
der natürlichen Kreisbahn aufrecht erhalten zu können,
wurde ad hoc behauptet, daß die Marsbahn wohl ein
Kreis sei, die Erde sei aber nicht Mittelpunkt seiner
Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel)
bewege sich selbst auf einem Kreis um die Erde, dem so
genannten Trägerkreis oder Deferenten. Da die
Geschwindigkeit des Mars aber nicht gleichförmig ist,
wurde wieder ad hoc behauptet, daß die Erde nicht
genau im Zentrum des Trägerkreises sei, die Erde sei
somit exzentrisch angeordnet. Doch die Einführung von
Epizykeln und Exzentritäten genügte für die exakte
Bahnbeschreibung immer noch nicht. Ptolemäus führte als
weiteren Parameter den Äquant ein. Nur vom Äquanten aus
betrachtet stellen sich alle Bahnen als gleichförmige
dar. Das Ptolemäische Modell liefert eine genaue
Beschreibung der Phänomene, wenn die Parameter Epizykel,
Exzentrizität und Äquant passend variiert werden. Eine
kausale physikalische Erklärung für die
Modellkonstruktion wurde nicht gegeben.
Einige
"SM-Postulate" Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.
Die Definition der Masse eines Teilchens bezieht sich im
Rahmen des Standardmodells ausschließlich auf ihre kinematische
Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen
unberücksichtigt, wie auch die Gravitationswechselwirkung die im
Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung
der Masse manifestiert sich im Propagator des Teilchens. Alle
»Materieteilchen« im Standardmodell sind Fermionen (Spinwert: ½) und
werden durch vierkomponentige Spinoren beschrieben. Die vier Einträge
entsprechen – grob gesagt – der Beschreibung von Teilchen und
Antiteilchen mit jeweils zwei möglichen Spineinstellungen. Unter der (nicht mehr gültigen) Annahme das Neutrinos masselos sind, besitzt das minimale Standard-Modell mit 3 Familien 18 freie Parameter. Die Kopplungskonstanten: αs, α, sinθW. Die Massen der Leptonen: me, mµ, mτ Die Massen der Quarks: md, mu, ms, mc, mb, mt Die Massen der Bosonen: mZ, mW Die Parameter der CKM-Matrix für den Quarksektor: λ, A, ρ, η. Im Falle massiver Neutrinos erhöht sich die Anzahl der freien Parameter um sieben, einerseits für deren Massen, andererseits für die Mischungsmatrix im leptonischen Sektor. Weitere freie Parameter können „auftauchen“, wenn man von dem minimalen Higgs-Sektor zu einem komplizierteren Mechanismus übergeht. Es gibt drei Familien von Teilchen und der einzige Unterschied zwischen den Familien besteht in den Teilchenmassen, ansonsten sind die Eigenschaften von Familie zu Familie gleich. Teilchen aus der zweiten und dritten Familie (Generation) können in Teilchen der ersten Familie zerfallen und Materie besteht nur aus Teilchen der ersten Generation: Up- und Down-Quarks bilden die Protonen und Neutronen der Atomkerne, die von Elektronen umgeben sind.
Lässt man die Neutrinomassen "beiseite", dann unterscheiden sich die Massen des leichtesten Fermions (Elektron) und des schwersten (Top-Quark) um einen Faktor von ca. 400.000, obwohl die Massenterme mit der spontanen Symmetriebrechung denselben Ursprung haben. Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert.
Merke:
Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x
U(1)Y kann nur masselose Fermionen beschreiben. C steht für
Farbe (die Ladung der starken Wechselwirkung), W für Schwache
Wechselwirkung und Y für Hyperladung. Die elektroschwache
Yang-Mills-Theorie wird durch SU(2)W x U(1)Y
beschrieben, die SU(2)W enthält drei
Eichbosonen. Die zunächst masselosen Fermionen können durch ihre Helizität
charakterisiert werden. Rechtshändige Fermion-Zustände haben Helizität
+½, linkshändige Fermionen den Wert -½. Nur bei masselosen Teilchen ist
die Helizität eine lorentzinvariante Größe. Es gibt Erzeugungs- und
Vernichtungsoperatoren für rechts- und linkshändige Teilchen und für
die jeweilige Händigkeit von Antiteilchen. Die Ladung des rechtshändigen
Antiteilchens ist entgegengesetzt der Ladung des linkshändigen Teilchens.
Es ist eine zentrale Eigenschaft aller Fermionen des SM, daß sie chiral
sind. Definition: Ein Fermion ist chiral, wenn die rechts- und linkshändigen
Teilchen-Zustände nicht dieselben Ladungen tragen. Chirale Fermionen sind
masselose Fermionen. Durch spontane Symmetriebrechung erhalten Fermionen
Masse und SU(3)C x SU(2)W x U(1)Y
reduziert sich auf die Eichgruppe SU(3)C x U(1)em ,
die bei niedrigen Energien beobachtet wird.
QuantenChromoDynamik Die QCD ist im Gegensatz zur QED eine nicht-abelsche Eichtheorie, das heißt die Multiplikation von zwei Gruppenelementen ist im Allgemeinen nicht kommutativ. Das führt dazu, daß in der Lagrange-Dichte Terme auftreten, die eine Wechselwirkung der Austauschteilchen miteinander bewirken. Konkret: Die Austauschteilchen (masselose Gluonen) tragen selbst »Farbladungen« und wechselwirken auch untereinander. Als eine Folge nimmt die Kopplungskonstante αs mit steigender Wechselwirkungsenergie logarithmisch ab („asymptotische Freiheit“). Die Genauigkeit der Theorie-Vorhersagen liegt im Prozentbereich. [Wobei sich die Vorhersagen nur auf die selbstdefinierten Theorieaspekte beziehen. Allgemein kann man "festhalten": Das SM somit QCD inklusive hat u.a. "nichts zu sagen" über konkrete Teilchenmassen, assoziierte Lebensdauern, Massenrelationen, zur Gravitation, zur Natur der Feinstrukturkonstanten, zur Phänomenologie des Spins] In der Quantenfeldtheorie ist ein Elektron nicht nur ein »nacktes Elektron«, sondern von einer Wolke von virtuellen Teilchen (Photonen und Elektron-Positron-Paaren, bei höheren Energien auch anderen Fermion-Antifermion-Paaren) umgeben (Vakuumpolarisation), die es ständig emittiert und wieder absorbiert. Diese schirmen die negative Ladung des nackten Elektrons ab. In unmittelbarer Nähe der nackten Ladung werden die Elektron-Positron-Paare polarisiert, d.h., die virtuellen Positronen werden angezogen und die virtuellen Elektronen abgestoßen. Die nackte Ladung wird dadurch zum Teil kompensiert und in größerer Entfernung misst man nur noch die Differenz zwischen der nackten Ladung und der Gesamtladung der virtuellen Positronen (bzw. Antileptonen und entsprechenden Quarks je nach Energie). Die Messung der Testladung hängt also vom Abstand ab. Wenn man sich dem Elektron nähert, durchdringt man die Positronwolke, die die Elektronladung abschirmt. Postulierte Ladungsrelativierung
Die
durch die Ladung verursachte Polarisation des Vakuums in der Region um die
Elementarladung sorgt für einen Abschirmungseffekt. Das führt dazu, daß
die beobachtete Ladung keine Konstante mehr ist, sondern vom Abstand bzw.
der entsprechenden Energieskala Q abhängt, bei welcher ein Prozess
stattfindet. Dies wird als Laufen der Kopplung bezeichnet. In der QED
nimmt die Stärke der Kopplung mit steigender Energieskala Q zu.
Die so genannte effektive
Kopplungskonstante wird definiert durch:
"QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!]
Elektroschwache
Wechselwirkung
Das
Modell von Glashow, Weinberg und Salam vereinigt die elektromagnetische
und die schwache Wechselwirkung zur elektroschwachen Wechselwirkung. Ihre
Struktur ist durch eine nicht-abelsche Eichsymmetrie der Gruppe SU(2)L×U(1)Y
bestimmt. Die Wechselwirkungen der fundamentalen Teilchen werden durch den
Austausch der Eichbosonen (Spin 1) vermittelt, die über lokale innere
Symmetrien in die Theorie eingeführt werden. Die „Rolle“ der
Materiefelder übernehmen Fermionen. Die Materiefelder sind durch jeweils
drei Generationen von links- und rechts-chiralen Quarks und Leptonen
gegeben. Zu den Leptonen gehören Elektron, Myon und Tau sowie ein
Neutrino in jeder Generation.
Die sechs Quarks sind Up-, Down-, Charm-, Strange-,
Top- und Bottom-Quark.
Quarks wechselwirken sowohl elektroschwach als auch
stark. Die Quarks der ersten Generation (Up und Down) bilden die Bausteine der
Protonen und Neutronen. Leptonen wechselwirken dagegen ausschließlich
elektroschwach.
Das Postulat eines unterschiedlichen Transformationsverhaltens der links-
und rechts-chiralen Fermionen theorieinduziert eine Quantenzahl die als
schwacher Isospin bezeichnet wird, der für die obere Komponente eines
SU(2)-Dubletts den Wert I = +½ und für die untere Komponente I = −
½ hat. SU(2)-Singuletts werden durch I = 0 gekennzeichnet. Aus der
Annahme, dass die schwache Wechselwirkung die Parität, sprich die
Symmetrie unter Raumspiegelung, maximal verletzt, ergeben sich
unterschiedliche Kopplungen der Eichbosonen der schwachen Wechselwirkung
an links- und rechtshändige Fermionen. Die Quantenzahl der U(1)Y
-Symmetrie, welche die Invarianz der Lagrange-Dichte unter lokalen
Phasentransformationen der Felder angibt, ist die Hyperladung Y, die mit
der elektrischen Ladung Q und der dritten Komponente des schwachen
Isospins I3W durch die Gell-Mann-Nishijima-Relation
Q = I3W + ½Y zusammenhängt. Aus dem etablierten SM-Formalismus resultieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM.
Renormierung
und Regularisierung
In
Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben.
Diese enthält eine bestimmte Anzahl von freien Parametern, deren
Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell
bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen
(Bornschen Näherung), können viele freie Parameter direkt mit den
physikalischen Größen, wie z. B. den Massen oder der elektrischen
Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt,
so wird der direkte Zusammenhang zwischen den freien Parametern der
Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern)
und den physikalischen Größen zerstört. Dies macht eine Redefinition
(Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf
der Berechnung des Zusammenhangs zwischen den „unphysikalischen“ und
den physikalischen Parametern können Integrale auftreten, die
divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale
gesichert wird, wird durch das Verfahren der so genannten Regularisierung
festgelegt. Es ist essentiell, daß die auftretenden Divergenzen durch
eine Redefinition der Theorieparameter absorbiert werden können, ohne
dabei die Symmetrien der Theorie oder die Unitarität der Amplitude zu
verletzen. Dies führt dazu, daß die freien Parameter der Lagrange-Dichte
nicht direkt mit den Observablen identifiziert werden können, sondern
dynamische, also energie- und skalen-abhängige Beiträge erhalten und in
jeder weiteren Ordnung der Störungstheorie erneut mit den physikalischen
Größen in Verbindung gebracht werden müssen. Gelingt es, durch die
Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen
in allen Ordnungen der Störungstheorie zu beseitigen, so ist die
jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells
wurde von ’t Hooft bewiesen.
Bevor
Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen
zunächst die bei der Berechnung der Schleifenintegrale auftretenden
Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der
Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits
endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung
die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale
Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt
der inneren Symmetrien der Theorie).
Durch
die dimensionale Regularisierung werden die auftretenden Divergenzen in
negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels
Renormierung wird dann die Abhängigkeit von diesem unphysikalischen
Parameter subtrahiert und der Zusammenhang zwischen den im Modell
auftretenden freien Parametern und den experimentell bestimmbaren
physikalischen Größen neu festgelegt. In der Praxis werden dazu so
genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen
und systematischen Zugang zur Renormierung bieten. Dabei werden die
”nackten“ Parameter (m0, e0) und Felder (Φ0)
der Lagrange-Dichte mittels Renormierungskonstanten Zi
multiplikativ renormiert.
Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die
Renormierungskonstanten so gewählt, daß die renormierten Parameter der
Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie
entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt.
Werden alle Größen im On-Shell Schema bestimmt und erfolgt die
Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron
im Grenzfall eines verschwindenden Impulsübertrags), so hängt das
endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten
Massenskala ab.
Neben
den UV-Divergenzen aus der Region großer Schleifenimpulse qi
→ ∞ treten in Quantenfeldtheorien sowohl innerhalb der
Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der
Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der
Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf
ihrer Massenschale liegen und dadurch der Nenner des Propagators Null
wird. Daher werden diese Singularitäten im Allgemeinen als
Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden
der äußeren und inneren Massen verbunden ist. Zur Erinnerung: das "zauberhafte" fine-tuning ... die an den Haaren herbeigezogene Feinabstimmung ... Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgsmasse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgsmasse mH ~ 125 GeV führt zu der Situation, daß sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn) Nachkommastellen genau aufheben (müssen).
Es
gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung,
deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig
den Fokus verschieben würde. Schenken wir uns also noch mehr Details (die jeder nach Belieben in zahlreichen Ausführungen online selbst nachlesen kann), schenken wir uns weitere Kritik zur Renormalisierung und Renormierung und betrachten an dieser Stelle nur die theorie-konstruierte Ursache: Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger schlicht nicht erfasst. Berücksichtigt man jedoch eine endliche, realphysikalisch orientierte, phänomenologische „Natur der Objekte“, lösen sich die "Unendlichkeiten" plausibel auf.
Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle. Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes". Aber: Die angeblichen Beobachtungen mit grosser Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle - allen voran nicht auf H→bb̅ mit 57% -. Somit reduziert sich der Stand der Dinge auf folgende Situation. Es wurden im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in zwei
Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen) zwei
Photonen zwei
W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei
Neutrinos)
Zerfall
in zwei Tau-Leptonen Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung (im Internet) aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des "Verfahrens" grob skizziert werden. Eine ausführlichere Betrachtung mit Elementarkörpertheorie basierenden konstruktiven "Elementen" zum Higgs-Mechanismus ist im Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten zu finden.
Seit
mehr als fünf Jahrzehnten werden mit steigendem Aufwand Forschungen in
der Teilchenphysik betrieben, ohne daß die wirkliche Natur der Teilchen
erkannt wurde. Die herrschende Physik meidet aus Kalkül eine
„Teilchendefinition“. So ist es Gang und Gebe, Teilchen allein auf
Grund „überzeugender theoretischer Argumente“ zu erfinden und als
feste Größen in Theorien „einzubauen“. So wird fehlende, elementare,
ursächliche Erkenntnis durch theoretische Kreisschlüsse ausgeblendet.
Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im weiteren Verlauf dieser mathematischen Prozedur zeigt sich jedoch, dass ein weiteres masseloses Vektorboson, dass so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“).
In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.] Mischungen der elektroschwachen Theorie
Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".
Hier würde sich in einer
konstruktiven erkenntnistheoretischen Auseinandersetzung beispielsweise
die Frage stellen, inwieweit das erweiterte Konzept der
„Austauschteilchen“, respektive der Eichbosonen überhaupt Gültigkeit
besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend
verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson,
sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum
Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der QED
bzw. des SM stark diskussionswürdig. Insgesamt stellt sich
epistemologisch die Frage nach der Realität der innerhalb des SM
theorienotwendigen Vektorbosonen und des theorienotwendigen
Higgs-Bosons. Wobei hier zu bemerken ist, daß 99% der Masse des Protons
sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der
Higgs-Mechanismus ist also selbst im Rahmen des SM
voraussageunspezifisch und massegebend extrem ineffizient. Hier gilt
auch zu bemerken, daß ausnahmslos alle experimentellen Nachweise
indirekte, stark theoriebeladene Nachweise sind, wie noch ausführlich
erörtert wird. Auch auf die Vektorbosonen verwandten Problematiken der
postulierten asymmetrisch, ladungsfragmentierten
Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den
fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese,
Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen
kommen "wir" noch ausführlicher "zu sprechen“. Von den im Standardmodell als fundamental angesehenen Fermionen sind die Massen der geladenen Leptonen – Elektron, Myon, Tau – nur experimentell bekannt, sie treten als freie Teilchen auf. Die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. Halten wir fest: Das Higgs-Feld, der Higgs-Mechanismus oder was es sonst noch so an semantischen Higgs-Möglichkeiten gibt, soll allen "Teilchen" und auch dem Higgs-Boson selbst Masse "geben". Analytisch, rational logisch denkend erwartet man mit der Aussage "Masse geben", daß es formale Zusammenhänge gibt, die es "erlauben" qualitativ und quantitativ theoretische Teilchenmassen in Übereinstimmung mit gemessenen Teilchenmassen berechnen zu können. Das ist aber in keinem Fall, ausgehend von Higgs-Mechanismus, möglich !!! Mit freien Parametern bestückte Gleichungen anzuschreiben und dann zu behaupten, diese Gleichungen würden "Masse geben" ist realphysikalisch nichts weiter als eine "Luftnummer". In Anbetracht der "1% - Situation" wird daraus - interdisziplinär gesehen - eine Lachnummer. Wer lässt sich auf solch einen Quatsch ein? Warum lässt sich jemand auf solchen Quatsch ein? Warum gibt es kaum Kritiker? Haben alle die Hosen voll, weil sie in Furcht vor dem Formalismus und mangels eigener (Grund-)Kenntnisse lieber den Mund halten, statt sich konkret mit den mathematischen Konstrukten zu beschäftigen? Was bleibt denn von den phänomenologisch unbegründeten "axiomatischen" Fantasiekonstrukten ausser Willkür und Beliebigkeit? Wie man so schön umgangssprachlich sagt: "Butter bei die Fische". Standardmodell-Physiker sollten in Anbetracht der Realsituation kleinlaut, besser noch stumm, erst einmal ihre "Hausaufgaben" machen, bevor sie mit leeren Versprechungen umherziehen. Grundsätzlich werden im SM auftretende mathematische Objekte "gewünscht" massebehaftet oder masselos "geeicht". "Gewünscht" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "(Neu-)Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - (auch von SM-Vertretern anerkannt) endliche Massen besitzen. Die theoretische Forderung läuft ins Leere. Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. "Praktisch" braucht es mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht direkt nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen, nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß als "Nachweis" postuliert wird. Ohne Übertreibung ist offensichtlich die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee in einer - rational logisch erfassbaren - unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »Fantasie-Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt" wird. Ein grundsätzliches Problem der Zuordnung und Identifikation möglicher Energie-Peaks ergibt sich aus der Eigenschaft beschleunigter Ladungen. Die Vielzahl der "detektierten" Ereignisse ist einerseits auf das gewählte Energiespektrum zurückzuführen und andererseits auf die Tatsache, daß beschleunigte Ladungen stetig Energie abstrahlen, die teilweise wieder von den "benachbarten" geladenen Teilchen aufgenommen wird. Das heißt, zum Zeitpunkt der Kollision gibt es eine statistische Verteilung der Energie der kollidierenden Teichen. Die daraus resultierenden Ereignisse wurden und werden dann offensichtlich nach Lust und Laune der Theoretiker als gewünschte Elementarteilchen "gezählt". Da hin und wieder "überraschende", unerwartete, neue Ereignisse gut zu gebrauchen sind, um weiter "forschen" zu können, was gleichbedeutend mit der Absicherung der eigenen wirtschaftlichen Existenz gekoppelt ist, wird von Zeit zu Zeit der Zerfallskanal für "Neues" geöffnet. Insgesamt stellt sich die Frage, wie aus einer Vielteilchenkollision Informationen über ein einzelnes Ereignis erhalten werden können. Die Frage ist einfach zu beantworten. Es ist unmöglich. Hier wird - berauscht von den eigenen SM- Fantasien - schlicht die Realität ausgeblendet und so getan, als ob ein einzelner Streuprozess aus Millionen von statistisch unbekannt verteilten Streuprozessen beobachtbar wäre. Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, dreist-frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. In Anbetracht der dokumentierten "Schizophrenie" wäre es vielleicht keine schlechte Idee, die "Macher" und "Entscheider" neurologisch untersuchen zu lassen. Neutrino-Propaganda
Der
Nobelpreis für Physik des Jahres 2015 für den (angeblichen) Nachweis der
Neutrinooszillationen ist eine weitere psychologische Hürde, die man erst
einmal nehmen muß, um sich inhaltlich der Kernproblematik nähern zu können,
daß es schlicht keine Neutrinooszillationen geben kann, da es keine
Neutrinos gibt. Auch hier führte – wie bei allen anderen rein
theorieinduzierten Grössen - die über Jahrzehnte kontinuierliche,
experimentelle Suche und vermeintliche experimentelle Bestätigung, das
Gesuchte gefunden zu haben, zu einem - aus erkenntnistheoretischer Sicht
– fatalen, selbstprophetischen Neutrinobefund. Mantraartig wird
interessierten Laien, Physikstudenten und allgemein der Forschergemeinde
eingehämmert, Neutrinos seien so real, wie das irdische Leben selbst. Es gibt aber bis heute keinen einzigen direkten experimentellen Neutrinonachweis. Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar“, ganz zu schweigen von der nicht vorhandenen experimentellen Reproduzierbarkeit. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.
Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Masseneigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superpostion von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt.
Quarks
hingegen sind nicht isolierbar, soll heißen, nicht direkt
"messbar". Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf
Streuquerschnitte "berechnet". Bei der Angabe der Resultate muß sorgfältig unterschieden
werden, auf welchen Modellannahmen die Berechnungen beruhen und welches
Renormierungsschema verwendet wurde. Die Literatur zum Thema ist
entsprechend umfangreich und teilweise schwer zu vergleichen.
"Massetragende" Neutrinos können als Dirac- oder
Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese
beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen
sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße,
während die Leptonfamilienzahl durch die Neutrinomischung verletzt
wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich
auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre
eigenen Antiteilchen sind. Diese Leptonzahlverletzung könnte sich in
einem neutrinolosen doppelten Betazerfall zeigen. Die Beobachtung eines
solchen Zerfalls wäre ein eindeutiger Hinweis auf die Existenz von
Majorana-Neutrinos. Darüber hinaus ist die Unterscheidung von Dirac-
und Majorana-Neutrinos experimentell äußerst schwierig.
Majorana-Neutrinos können kein elektrisches oder magnetisches
Dipolmoment besitzen, ebenfalls als Folge der Tatsache, daß
Majorana-Neutrinos ihre eigenen Antiteilchen sind. [Nur warum sollte man sich mit der Frage nach "massetragenden" Neutrinos und theoretischen Konstrukten a la Dirac- oder Majorana-Spinoren beschäftigen, wenn es eh keine Neutrinos gibt?]
Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. Standardmodell-Aussage: …“Neutrinos sind im Standardmodell der Teilchenphysik masselos. Oszillationen erfordern aber Massen und aus dem experimentellen Nachweis der Oszillationen folgt daher erstmals, dass das Standardmodell unvollständig ist.“… Da haben wir es wieder. Die theoretischen Grundlagen sind nicht falsch (wo kämen wir denn da hin), nein, das SM ist "unvollständig". Was kümmert uns die theoretische Grundlage der postulierten Masselosigkeit von Gestern.
Zum Mitdenken Gedankenexperiment: Nehmen wir Neutrino-Massen als gegeben hin und betrachten wir die Masse der Neutrinos. Die aktuelle These, die zur „felsenfesten“ Annahme der Theoretischen Systemphysik führt(e), hält einige Implikationen bereit, die die Behauptung der extrem kleinen Wirkungsquerschnitte diskussionswürdig macht. Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte. Masse bedeutet, daß der Träger der Masse energetisch ein Masse-Äquivalent besitzt, welches sich durch die Comptonwellenlänge manifestiert. Stellen wir uns vor, daß die Massenuntergrenze - wie in einem Artikel der Max-Planck-Gesellschaft behauptet (https://www.mpg.de/443025/forschungsSchwerpunkt1) - des Neutrinos bei 0,05 eV/c2 liegt. Das entspricht einer Masse von ~ 8,9e-38 kg und einer Comptonwellenlänge von 2,5e-5 m (0,025 mm). Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem zu einer Gesamtenergie (relativistische Ruhe-Energie und kinetische Energie) des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg. Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von ~ 1,56e7 (Gamma = 1/(Ekin/E0 + 1)) und einer resultierenden De-Broglie-Materiewelle von ~ 1,6e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m. Die Massenuntergrenze des Neutrinos spielt hier praktisch keine Rolle, weil in allen Fällen die vermeintlich vom Neutrino aus dem Laborsystem maximal „entführte“ Energie durch die gemessene Energiedifferenz vorgegeben wird und diese den Wert der De-Broglie-Materiewelle festlegt, eine weitere Verschiebung der Neutrinomassenuntergrenze macht letztere Aussage „noch absoluter“. De-Broglie-Materiewellen sind im Gegensatz zu den teilcheninhärenten Comptonwellenlängen offensichtlich nicht teilchenspezifisch. Warum sollte nun ein Neutrino mit der De-Broglie-Materiewelle von ~ 1,6e-12 m nicht nachweisbar wechselwirken? Kleinere kinetische Energien weiterer Neutrinos gemäß Betaspektrum mit weniger als maximaler Energiezufuhr, „erzeugen“ langwelligere Neutrino-Materiewellen, die gleichfalls aus Sicht der Materiewellenbetrachtung wechselwirkungsfähig sind. Die Antwort der Vertreter des Standardmodells der Teilchenphysik wäre wohl, das das Neutrino nur der Schwachen Wechselwirkung und der Gravitation unterliegt, diese Antwort ist jedoch keine unabhängig begründende Antwort, da diese Annahme postuliert wird. Neutrinopostulat und die Theorie der Schwachen Wechselwirkung bedingen einander. Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zum Neutrinopostulat und dem daraus abgeleiteten theoriebeladenen Neutrinowirkungsquerschnitt experimentell gesichert und experimentell reproduzierbar. Was ist also aus Sicht der Impulsbetrachtung (p = m(v)·v) so fundamental anders? Antwort: (Eigentlich) NICHTS! Das SM unterscheidet zwischen, zumindest theoretisch nachweisbaren Objekten, wie beispielsweise den Neutrinos und den generell nicht nachweisbaren Quarks (Confinement-These). Eine Materiewelle, egal wie sich das Produkt aus Masse und Geschwindigkeit zusammensetzt (welche nicht der Confinement-These unterliegt), sollte experimentell nachweisbar streu- und stoßfähig sein. Weitere Details zu Neutrinos im gleichnamigen Kapitel.
Zur Erinnerung: Mit anderen Worten zum "Einprägen" von "SM-Sichten"... Im Standardmodell existieren drei Generationen von Leptonen und Quarks, sowie vier elektroschwach und acht stark wechselwirkende Eichbosonen und ein skalares Boson, das Higgs-Boson. Die elektromagnetische Wechselwirkung zwischen Leptonen und dem Photon wird mittels der Quantenelektrodynamik (QED) beschrieben. Die Theorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD). Die Teilchen, die die starke Wechselwirkung vermitteln, sind die acht Gluonen, diese koppeln an die Farbladung (rot, grün, blau), die von den Quarks getragen wird. Die schwache Wechselwirkung wird mittels der W- und Z-Bosonen vermittelt. Das Standardmodell ist eine Quantenfeldtheorie (QFT): Teilchen und Felder sind quantisiert und werden einheitlich und relativistisch beschrieben. Im Jahre 1964 postulierte Murray Gell-Mann auf Grund von Argumenten zur (mathematischen) Symmetrie der SU(3)-Gruppe eine Struktur der Nukleonen, die aus drei Partonen – diesen Namen hat Richard Feynman geprägt – bestehen. Basierend auf literarischen Vorbildern wurden die Partonen von Gell-Mann als ” Quarks“ bezeichnet, nach James Joyce in” Finnegans Wake“: Three quarks for master Mark. Nukleonen bestehen aus drei Quarks, die Mesonen aus einem Quark-Antiquark-Paar. Gemäß Pauli-Prinzips wurde den fermionischen Quarks und deren 8 Austauschteilchen (Gluonen) eine weitere Quantenzahl "angeheftet". Diese "zusätzliche Quantisierung" wird Farbladung genannt. Die Quarks befinden sich in Farbladungszuständen. Antiquarks haben die gleichen Massen wie Quarks, aber entgegengesetzte elektrischer Ladung und entgegengesetzte Farbladung. So hat ein Anti-u-Quark die Ladung −2/3 e und existiert in den Farbladungszuständen antirot, antiblau und antigrün. Zwischen den Quarks agieren als Feldquanten die Gluonen, die die Masse Null und den Spin eins haben sollen. Auch sie tragen Farbladungen. Gluonen sollen untereinander wechselwirken können. Die »fundamentale Lagrange-Funktion« der Quantenchromodynamik beschreibt die Wechselwirkung der Quarks. Die dabei auftretenden Felder, die mit den u- und d-Quarks gekoppelt sind, verlangen für diese beiden Quarks Massen-Werte von ca. 5 MeV/c². Diese als Stromquarks bezeichneten Größen sind jedoch nicht diejenigen, die gemeint sind, wenn der Aufbau eines Nukleons aus drei Quarks beschrieben wird. Die drei ein Nukleon bildenden Quarks sind theoriebedingt nicht isolierbar (nicht nachweisbar, Stichwort Confinement). Ihre Massen lassen sich nicht mit den oben genannten Massen der Lagrange-Funktion gleichsetzen. Man muß zur Beschreibung der Nukleonen effektive Massen einsetzen, die den Einschluss der Quarks berücksichtigen. Man nennet diese Valenz- oder Konstituenten-Quarks“. Des Weiteren wird vom SM angenommen, daß die Quarks auch mit virtuellen Quark-Anti-Quark-Paaren (Seequarks) und virtuellen Gluonen wechselwirken. Das Nukleon ist somit ein komplexes System, das sich aus drei Konstituentenquarks, einer Mesonenwolke aus Quark–Antiquark–Paaren und Gluonen zusammensetzt. Eine konsistente und quantitative Beschreibung des Nukleons im Rahmen der QCD ist nicht möglich, da aufgrund der großen Kopplungskonstante ein störungstheoretischer Potenzreihenansatz nicht konvergiert.
Fragmentierte
Beliebigkeiten Die
schwache Wechselwirkung koppelt an Leptonen und an Quarks. Bei der
schwachen Wechselwirkung unterscheidet man zwischen geladenen und
neutralen Strömen. Die geladenen Ströme unterteilt man in leptonische,
semileptonische und nichtleptonische Prozesse. Bei leptonischen
Prozessen koppelt das W-Boson nur an Leptonen, bei semileptonischen
Prozessen sowohl an Leptonen als auch an Quarks und bei
nichtleptonischen Prozessen nur an Quarks. Die Leptonzahl ist bei
Reaktionen, die über die schwache Wechselwirkung ablaufen, eine
Erhaltungsgröße. Nicht nur der β -Zerfall geschieht aufgrund der
schwachen Wechselwirkung. Auch viele Leptonen wie das Myon und einige
Hadronen zerfallen über die schwache Wechselwirkung. Bei einigen Zerfällen
der Hadronen ändert sich die Strangeness. Die Strangeness ist bei der
elektromagnetischen und bei der starken Wechselwirkung eine Erhaltungsgröße,
nicht aber bei der schwachen Wechselwirkung. So zerfällt z.B. das Kaon
über die schwache Wechselwirkung. …Cabibbo hat das down-Quark ersetzt durch eine Linearkombination aus einem down-Quark und einem strange-Quark Das
liest sich dann wie folgt: In der elektroschwachen Theorie treten zunächst
vier masselose Eichbosonen auf. Nach einer spontanen Symmetriebrechung
erhält man vier Bosonen, die sich als Mischung der masselosen Bosonen
darstellen lassen, diese sind das masselose, ungeladene Photon, das
neutrale Z-Boson und geladene W-Bosonen. Diese sind aber nicht
elementar, da sie sich als Linearkombinationen darstellen lassen. Die W±-Bosonen tragen, im
Gegensatz zum Z-Boson, eine elektrische Ladung. Die zugehörigen
Teilchenprozesse bezeichnet man deswegen auch als „geladene Ströme“.
Bei Quarks ist im Zusammenhang mit den zwei W-Bosonen zusätzlich die
CKM-Mischung (benannt nach Nicola Cabibbo, Makoto Kobayashi und
Toshihide Maskawa) zu beachten. Zum Beispiel kann ein u-Quark durch ein
W − nicht nur in ein d-Quark umgewandelt werden. Es
besteht mit geringerer Wahrscheinlichkeit auch die Möglichkeit ein
s-Quark oder b-Quark zu erhalten. Die W-Bosonen können also auch das
Flavour ändern. Bei
der Kollision von Protonen kann Alles oder Wenig entstehen. Eine große
Anzahl von Teilchen kann erzeugt werden. Kollisionen
können auch zu Teilchenschauern, so genannten Jets, führen, ohne Z-
und W-Teilchen oder Top-Quarks zu enthalten. Ereignisse mit W-Bosonen, Top-Quarks
oder Jets, die wie ein Signalereignis aussehen, werden als "Untergrundereignis"
bezeichnet. Das W--Boson entsteht aus der Kollision zwischen
einen Gluon und einem Down-Quark und zerfällt in ein Elektron und ein
Antineutrino. Dies ist nur einer von vielen möglichen Wegen, wie ein W--Boson
gebildet wird und wieder zerfällt. Der
Leser, allgemeiner der Interessierte, muss keineswegs wissen was eine
Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour,
Hyperladung oder Quarkonia ist. Denn offensichtlich werden im
Standardmodell der Teilchenphysik diverse theoretische Konzepte,
respektive deren Theorieparameter verknüpft, verschachtelt und
vermischt, so dass jedwede (experimentell resultierende) Konstellation
theoretisch erfasst werden kann. Da aber keines dieser Theoriekonzepte
eine konsistent begründete physikalische Realität abbildet, ergibt
sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn.
Es sei denn, man bewertet ein Konstrukt aus frei wählbaren
mathematischen Beliebigkeiten als geistreiche Errungenschaft. In dem
Zusammenhang sind alle angeblichen experimentellen Beweise indirekt.
Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung.
Die Detektoren registrieren in letzter Konsequenz schlicht
Strahlungsenergie oder beispielsweise Elektronen, Positronen, Protonen.
Alle dazwischenliegenden Kaskadenereignisse sind bei genauer Betrachtung
nahezu beliebig wählbar. Das Ausleihen von Energie aus dem Nichts (Vakuum) klappt mit den Bosonen nicht so ganz, wie man es exemplarisch am Beispiel des Neutronenzerfalls nachprüfen kann. Nimmt man die vom SM „theoriebeladen gemessenen“ Werte für die „Ruhe-Energie“ des W- und die mittlere Lebensdauer des W-, so ergibt sich keineswegs die Energie-Zeit-Unschärfe, so wie es die QM nahe legt. Insgesamt ist die Annahme, daß sich bei einem physikalischen Prozess, die Prozessteilnehmer virtuell Energie aus dem Nichts besorgen, um damit eine beobachtbare real-physikalische Umwandlung auslösen, ein etabliertes Märchen. Zur Erinnerung: Märchen sind meist irreal und brauchen nicht logisch sein. Physik sollte stets logisch und real sein. Eine Energie-Erhaltungssatz-Verletzung ist auch dann eine Energie-Erhaltungssatz-Verletzung, wenn die assoziierte „Leih-Zeit“ sehr klein ist.
Mischungswinkel
Es ist fragwürdig warum Mesonen mit unterschiedlichen Massen
als gleiche „Teilchenart“ behandelt werden. Siehe z.B. Pionen und η-Mesonen.
Mischungswinkel täuschen darüber hinweg, dass es keine Phänomenologie
zwischen den betreffenden Teilchen(konstruktionen) gibt. Siehe
exemplarisch das η-Meson (Eta-Meson). Die
geladenen Pionen zerfallen durch schwache Kernkraft und werden dabei in
Leptonen umgewandelt. Der häufigste Zerfall des positiven Pions besteht
darin, dass Up-Quark und Anti-Down-Quark in ein positives Anti-Myon und
ein Myon-Neutrino zerfallen. Überträger dieser Umwandlung ist das
positive W-Boson. Negative Pionen zerfallen durch das negative W-Boson
zu einem Myon und einem Anti-Myonen-Neutrino. Die ungeladenen Pionen
zerfallen durch die elektromagnetische Kraft etwa eine Milliarde mal
schneller. Solch ein neutrales Pion zerfällt fast immer in zwei
Photonen. Es gibt auch schwerere Mesonen, die ebenfalls aus Up- und
Down-Quarks aufgebaut sind. Diese zerfallen aber viel schneller und
erzeugen dabei wieder Pionen. Ein Beispiel für Mesonen, die auch andere
Quark enthalten sind die K-Mesonen. Dieser Alles-kann-Nichts-muß-pseudowissenschaftliche-Murks ist für einen freien Denker mit Hang zu erkenntnistheoretischer Klarheit nichts weiter als eine tragikomische Nullnummer der Erkenntnis. Erst einmal soweit zu den Alleinstellungsmerkmalen des »Asymmetrischen Märchens«. Schon die Anzahl der freien Parameter (derzeit 25!) des Standardmodells lässt den Schluss zu, daß es sich nicht um ein fundamentales Modell handelt. Die stetige Aufspaltung, Nachkorrektur und Ergänzung der „Theorie-Entitäten von gestern“ und die inkonsistente Behandlung von messbarer elektrischer Ladung, Masse und Radius führt zu einem Theoriesammelsurium. Verschiedene mathematische Grundannahmen und vermeintliche Lösungen, wie die Chirale Störungstheorie funktionieren nur für ausgesuchte Energiebereiche. Ratlosigkeit
und Phänomenologieferne werden durch virtuelle Teilchen und postulierten
Schnittstellen zwischen theoretischer Fiktion und Realphysik
„ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender
Komplexität vieler freier Parameter, variabler Kopplungskonstanten und
„wilder Substrukturierung“. Aus einem Austauschteilchen (Photon)
werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren
Quantenzahlen ausgestattet werden müssen. Um die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Es hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100 Jahren eine Denkmodell-Monokultur entwickelt, die den realobjektbefreiten, angewandten mathematischen Formalismus der Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt. In dieser Welt der realobjektbefreiten Wahrscheinlichkeiten und Lagrangedichten führ(t)en auch Schreibfehler zu neuen Lösungen. Übergeordnet scheint die Basisinformation verloren gegangen zu sein, daß selbst ein realobjektfreundliches, plausibles Denkmodell nicht einer objektiven Realität entspricht, sondern stets ein subjektives Abbild "verkörpert".
Large
Hadron Collider [LHC] Um
ein "Gefühl" und einen technischen Eindruck von der experimentellen
Seite des »Hoch-Energie-Physik-Problems« stark beschleunigter Teilchen zu
kommen, eignet sich exemplarisch die Online-Präsentation : LargeHadronCollider.
Relativ ausführlich und informativ werden einzelne Aspekte der
"Teilchenbeschleunigermaschine" erörtert. Als
LHC-Highlight wurde u.a. die erste 8 [TeV] Kollision im April 2012 von den
"Betreibern" gewertet. Zukünftig soll der LHC noch größere
Energien liefern können. Aktuell sollen Proton-Proton-Kollisionen mit 13
[TeV] möglich sein.
...Da
war doch was...
Die Datenmenge bestehend aus aufgezeichneten
Detektorsignalen und Computersimulationen wird auf 15 Millionen Gigabyte
pro Jahr geschätzt. Die Datenmenge wäre extrem größer, wenn
nicht auf Hard- und Softwareebene ein Großteil der Messsignale bereits vor
der Verarbeitung dauerhaft verworfen würde.
Die
Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1 bis 2 MB
pro Ereignis. Insgesamt resultiert aus den Kollisionen ein Informationsstrom
in der Größenordnung von 100 TB pro Sekunde. Durch ein Selektionssystem -
Trigger genannt - werden von 40 Millionen Strahlkreuzungen pro Sekunde
lediglich 200 Ereignisse pro Sekunde aufgezeichnet. Das bedeutet schlicht und
ergreifend, daß nahezu das gesamte Ereignisspektrum bewusst ausgeblendet
wird. Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die
Theorie bestimmt, was beobachtbar ist", "entfaltet"
sich somit im Standard-Betrieb eines Teilchenbeschleunigers auf
extreme Art und Weise. Diese systematisch "vorselektierten"
Messungen seit Jahrzehnten als Grundlage für die Überprüfung von
theoretischen Ansätzen „einzusetzen“, spiegelt die erkenntnistheoretische
Bedeutungslosigkeit des Standardmodells der Teilchenphysik (SM) wider,
insbesondere wenn man sich verdeutlicht, daß nur indirekt Teilchen gemessen
werden.
Ein
Weg der »Denkmodell-Erweiterung« ergibt sich aus dem Wunsch die Theorie im
Sinne einer gruppentheoretischen Betrachtung „symmetrieschöner“ zu
machen. Es "entstehen" theorieinduziert, neue Teilchen, die als
projiziertes „Ereignis“ im Beschleuniger gefunden werden müssen.
Nichts leichter als das, da die Wahrscheinlichkeit dass einige der
postulierten „Kollisions-Strahlungs-Trümmerstücke“ eine entsprechende
Energie besitzen, sich zwingend aus der statistischen Verteilung
beschleunigter Ladungen ergibt, sofern im richtigen Energiebereich gesucht und
selektiert wird. Die so „gebildete“ Behauptung der
Elementarteilchenphysiker, die experimentellen „Befunde“ der
hochenergetischen Teilchenkollisionen würden hervorragend mit der Theorie des
Standardmodells zusammenpassen, ist nichts weiter als ein banaler
Zirkelschluss. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um (vermeintlich) wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Das gilt nicht nur für organisierte Weltreligionen oder politische Systeme. Pluralismus, Selbstkritik und Erkenntniswunsch sind keine Charakteristika erfolgreicher Standardmodelle. Es macht im Ergebnis keinen Unterschied ob es in diesen Systemen Wissenschaftler gibt, die wirklich voller Inbrunst an diese, an Beliebigkeiten und Widersprüchen schwer zu überbietende, "Theorien" glauben oder ob es letztendlich banale wirtschaftliche Interessen der Protagonisten gepaart mit akademischer Macht sind... Die Kompliziertheit quantenfeldtheoretischer Formalismen erzeugt bei vielen "Kollegen" Ängste sich im Zuge einer SM-Kritik zu blamieren. Aufklärung ist hier wichtig. Es gibt schwerwiegende Inkonsistenzen, die sich auch perspektivisch nicht beseitigen lassen, da sich das Konstrukt des SM gemäß eigener Postulate und Wechselwirkungs-Thesen letztendlich mit den eigenen Widersprüchlichkeiten zersetzt. Weder der nächste Grad der Substrukturierung noch Confinement retten, was nicht zu retten ist.
Rechenvorschriften, insbesondere wenn diese
von komplexer Gestalt sind, ersetzen keine fehlende Phänomenologie.
Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der
Quantenfeldtheorien (QFTs) verwendete, teils neu definierte Mathematik
(Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch
unbegründet. Sie ist zwar formal(-axiomatisch) deutlich komplexer und
schwieriger verständlich als die bloße Erkenntnis, daß beispielsweise
Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²)
"quantisiert" sind, kommt aber über den Status einer
Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie
keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik
(QED) basierend von einer hervorragenden Übereinstimmung von Theorie
und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme,
dessen iterative Ergebnisse den Versuchs-Ergebnissen angepasst wurden. Die
einen sagen es nicht, die anderen durchschauen es nicht. Virtuelle
Theorie-Objekte sind Ergebnis orientierte Platzhalter für fehlendes
Wissen und erkenntnistheoretisch wertlos.
Eine Anregung: Die Suggestion einer
realmessbaren Situation für Theorieobjekte der Standardmodelle scheint
mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige
Analyse vornehmen zu können, sollten Aussagen selbständig überprüft
werden: Ob Neutrino, Higgs-Boson oder denken sie sich ein beliebiges
Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde
je direkt gemessen. Umso tiefer sie in die konkrete Konzeption und die
technische Realisation des Messvorganges „eindringen“ werden, umso
deutlicher wird verständlich, wie theoriebeladen, beliebig und
aussagelos die Experimente sind. Glauben sie nicht einfach an die
Existenz, prüfen sie selbst die messtechnischen Randbedingungen sowie
theoretischen „Implikationen“ die die angeblichen Existenzbeweise
liefern. KnockOut-Beispiele: Keine noch so angepasste, ergebnisorientierte, iterative Berechnung postulierter Quarks basierender Strukturen, mit einer oder mehreren Gluonensorten, relativistischen Interaktionen oder was ihnen auch immer einfällt, wird aus allgemein anerkannt logischen Gründen erklären können, warum ein solch asymmetrisch-verschachteltes Gebilde im resultierend unvermeidbar „nur statistischen Mittel“ das Gleiche liefert, wie das vom SM postuliert strukturlose „leptonische“ Elektron. Der ganze Fantasie-Quatsch des Standardmodells der Teilchenphysik zerbricht schlicht an der Tatsache, daß Elektron und Proton betragsmäßig eine gleiche elektrische Ladung besitzen. Für diese simple Denkmodell-Qualitäts-Analyse muß sich Niemand mit Lagrangedichte, taylorreihenaffinen Entwicklungskoeffizienten, assoziierten millionenfachen Rechenschritten und Theorien rumschlagen, in denen selbst Schreibfehler neue Lösungen generieren. Der nicht vorhandene Spin der Quarks und Gluonen Die erste Annahme war, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Dies wurde viele Jahre nach der ersten Annahme 1988 bei den EMC-Experimenten nicht bestätigt. Entgegen aller Annahmen wurden damals sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Diese Entdeckung war so unerwartet, daß eine Zeit lang von einer Spin-Krise gesprochen wurde. Aber auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergaben nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun die Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen : Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, namens "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird. Es wird also solange "kombiniert", bis das gewünschte Ergebnis vorliegt. Diese Leute sind so überzeugt von ihren Taten, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte die Natur eine komplexe Mehrobjekt asymmetrisch, ladungsfragmentierte, dynamische Substruktur schaffen, die nur im statistischen Mittel das Gleiche liefert, wie das postuliert punktverarmte, "leptonische" Elektron, daß ohne "Mühe" und Struktur, sowohl einen "diskreten" halbzahligen Spin als auch eine betragsmäßig gleiche Ladung liefert? Auch die stark unterschiedlichen Quark-Massen (die letztendlich in der Summe nur ein Prozent der Protonenmasse ausmachen !?!) sowie die -1/3- bzw. +2/3-Zerstückelung der Elementarladung bestätigen die brachiale Methodik die zur Anwendung kommt, um die vorhandene Theorie um jeden Preis zu erhalten, oder wie es Georg Wilhelm Friedrich Hegel formulierte, „um so schlimmer für die Tatsachen, wenn sie nicht meiner Philosophie (Theorie) entsprechen". Rhetorische Frage? Wie kann der Higgs-Mechanismus, respektive das Higgs-Boson Masse erklären, wenn die "Higgs-Feld-basierenden" Quarks nur ein Prozent der Protonenmasse ausmachen? "Grössenähnliches" gilt für das SM postuliert Quarks basierende Neutron. Auch hier besteht die Masse fast gänzlich aus Bindungsenergie. Die Frage müsste eigentlich lauten, warum lassen sich Wissenschaftler mit solch plumpen Beliebigkeitsaussagen abspeisen? Oder: Was ist aus wissenschaftlichen Standards geworden? Der quantenmechanische Spin steht in Zusammenhang mit der elektrischen Ladung. Warum sollten Elektronen und Positronen mit "ganzer" Elementarladung die gleiche Spinquantenzahl besitzen, wie ladungsfragmentierte Quarks? Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die postuliert quarks-basierenden physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Postuliert „Strukturlose“, wie das Elektron, sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "weitere 5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel".
[Anomale] Magnetische Momente Wenn man von dem experimentellen Wert des magnetischen Momentes des Protons den "theoretischen" Erwartungswert (Gleichung [μintm]) subtrahiert und diese Differenz mit dem experimentellen Wert des magnetischen Moments des Elektrons minus den theoretischen Wert des magnetischen Moments des Elektrons vergleicht, stellt man fest, daß diese "größenordnungs-ähnlich" (1/1.18) sind.
∆μBp = 1,4106067873e-26 J/T - 5,0507836982111e-27 J/T = 9,0552841747889e-27 J/T ∆μBe = 9,284764620e-24 J/T - 9,27400999205404e-24J/T = 1,075462794596e-26 J/T 1,18766321833414 = ∆μBe / ∆μBp
Mit anderen Worten: Verkörpert man das magnetische Feld in einer "energetischen Analogie" so resultieren das messtechnisch erfasste magnetische Moment des Protons und des Elektrons aus der jeweiligen energetischen Überlagerung mit dem Magnetfeld. Das Magnetfeld selbst als „Energiegeber“ ist in Wechselwirkung mit Elektron und Proton und liefert einen "teilchenspezifischen" Beitrag in der Größenordnung von 1e-26 Joule/Tesla zum gemessenen magnetischen Moment. Diese Annahme wird bestens formal bestätigt, wie explizit gezeigt wird. Gibt es, neben dem offensichtlich plausiblen Argument, das man nicht einfach den Energiebeitrag des Magnetfeldes ignorieren kann (so wie in der QM, QED und QCD üblich), noch weitere Anhaltspunkte für einen additiven Beitrag zum magnetischen Moment der Testkörper ? Ja, den gibt es. Es ist das magnetische Moment des elektrisch ungeladenen Neutrons, welches im Rahmen der semiklassischen Betrachtung nicht existiert und im Rahmen der postulierten Neutron-Quarks-(Sub-)Struktur auf diese zurückzuführen ist. Nur ist das magnetische Moment des Neutrons wirklich ein Beweis für eine Substruktur? Oder ist es viel mehr nur eine theoriebeladene Messwert-Interpretation des Standardmodells? Ein Blick auf die "nackten" Zahlen bestätigt die These, daß das magnetische Moment des elektrisch neutralen Neutrons ausschließlich aus dem Magnetfeldbeitrag resultiert, den das Neutron im (angelegten) Magnetfeld induziert. Denn obwohl die Massenwerte von Elektron zu Neutron/Proton stark unterschiedlich sind ( Faktor ~ 1840 ), sowie die Gesamtwerte ( 658,2107 ~ μBe(exp) / μBp(exp) und 960,9205 ~ μBe(exp) / μBn(exp) ), so sind die additiven Magnetfeld-Beitrags-Unterschiede nur im Bereich von 1.07 - 1.19 ! Mit anderen Worten: Die elementarkörperbasierende denkmodell-analytische „Bestandsaufnahme“ ist in sehr guter Übereinstimmung mit dem gemessenen magnetischen Moment des Neutrons. Ergebnis: Das neutrale Neutron besitzt kein eigenes magnetisches Moment, so wie es im Rahmen semiklassischer und elementarkörper-basierender Grundlage für ungeladene Objekte gilt:
∆μBn = μBn(exp) - μBn(th) 9,6623650e-27 J/Tesla - 0 J/Tesla
μBn(exp)
= ∆μBn
= 9,6623650e-27 J/Tesla - 0
J/Tesla =
9,6623650e-27 J/Tesla
Konsistente Annahme: Der gemessene Wert μBn(exp) = ∆μBn ~ 9,66237e-27 J/Tesla ist „nichts weiter“ als der messungsinhärente Beitrag des Magnetfeldes, den das Neutron, welches gemäß Elementarkörper basierender materiebildender Ladungswechselwirkung aus Elektron und Proton entstanden ist, im Magnetfeld „ induziert“. "Beweis"-Führung: Wenn die Annahme zutrifft, dann muß sich das magnetische Moment des Neutrons (μBn(exp) = ∆μBn) aus den messungsinhärenten Magnetfeldbeiträgen von Elektron und Proton (∆μBe und ∆μBp) berechnen lassen. Eine "einfache" Möglichkeit die drei Größen ∆μBn, ∆μBe und ∆μBp ohne explizite Kenntnis der Magnetfeldverkörperung zu verbinden ist : (∆μBn)² mit ∆μBe · ∆μBp gleichzusetzen. Hier gilt zu berücksichtigen, daß das Neutron aus der q0-Elektron und e-Proton Ladungswechselwirkung zusammengesetzt ist. (Details siehe die Kapitel Ladungsabhängige Materiebildung und Neutron) Das lässt sich durch den Faktor 1 + (e/q0) = 1 + (√α/2) ausdrücken. Das resultierende - konsistent phänomenologisch begründete - Ergebnis [μn] sollte Alle aufhorchen lassen.
∆μBp ~ ∆μBn ~ ∆μBe [ ! ] 9,055284175e-27 ~ 9,6623650e-27 ~ 1,075462794596e-26 1 : 1,06704161 : 1,18766322 : additive [Joule/Tesla] - Magnet - Beiträge für Proton, Neutron und Elektron stammen aus dem "Feld" selbst.
Vorliegende experimentell gestützte Analyse demontiert die Annahme substrukturierter Protonen und Neutronen.
An dieser Stelle sei daran erinnert, daß sich die Neutronen(-Ruhe-)masse mn als masse-radius-gekoppelte Größe aus der ladungsabhängigen, materiebildenden Proton-Elektron-Wechselwirkung berechnen lässt. Die phänomenologischen Details die zur der Berechnung führen, sprengen hier - im Hinblick auf die weiteren Betrachtungen zu den magnetischen Momenten der Elementarkörper Elektron und Proton - den Rahmen bzw. verschieben den Fokus auf die Proton-Elektron-Überlagerungsstruktur des Neutrons. (Details zur ladungsabhängigen Materiebildung finden sich im gleichnamigen Kapitel).
Ein kleiner Ausflug in die QED-Welt der leptonischen magnetischen Momente von Elektron, Myon und Tauon Man unterscheidet massenabhängige und massenunabhängige (universelle) Beiträge zum anomalen magnetischen Moment.
Universelle Beiträge sind Beiträge
von Feynman-Diagrammen höherer Ordnung mit zusätzlichen virtuellen
Photonen. Massenabhängige Beiträge treten erst ab 2.Ordnung
(2-Schleifen) auf, da erst ab 2.Ordnung geschlossene Fermionenschleifen
auftreten können, deren Beitrag von der Masse der virtuellen Fermionen
abhängt. Wenn die virtuellen Teilchen in den Fermionenschleifen und das
äußere Lepton gleich sind, zählt man diese Beiträge auch zu den
universellen Beiträgen. Zu den massenabhängigen Beiträgen der QED zu
ae tragen Leptonenschleifen mit virtuellen Myonen und Tauonen
bei. Zu aµ tragen Leptonenschleifen mit virtuellen
Elektronen und Tauonen bei. Wenn man alle bekannten Wechselwirkungen des
Standardmodells berücksichtigt (QED, QCD, Elektroschwache Theorie)
liefern alle Teilchen des Standardmodells über interne Schleifen Beiträge
zum magnetischen Moment von Leptonen. Um die gleiche Genauigkeit in der theoretischen Berechnung zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden bisher noch nicht berechnet. Zur Berechnung wurde der Wert der Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1 (87Rb) = 137, 035 999 049 (90) verwendet.
In
alle störungstheoretischen Berechnungen der anomalen (leptonischen)
magnetischen Momente geht die Sommerfeldsche Feinstrukturkonstante α
ein. Den genausten Wert erhält man über das anomale magnetische Moment
des Elektrons. Um die gleiche Genauigkeit in der theoretischen Berechnung
zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die
Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden
bisher noch nicht berechnet. Zur Berechnung wurde der Wert der
Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1
( 87Rb) = 137, 035 999 049 (90) verwendet.
1Observing light-by-light
scattering at the Large Hadron Collider 2016
Es ist auffällig und nicht erklärbar, warum die Beiträge in Abhängigkeit der Ordnung n ± alternieren.
Hadronische
Beiträge
Ab Feynman-Diagrammen mit 2-Schleifen liefert neben der QED auch die Quantenchromodynamik Beiträge zum anomalen magnetischen Moment al. Der führende Beitrag (”leading order“ = LO) der hadronischen Vakuumpolarisation zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt:
Der Beitrag des hadronischen ”Light-by-Light-Scattering“ zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt:
Neben
der QED und der QCD trägt auch die elektroschwache
Wechselwirkung zum anomalen magnetischen Moment der Leptonen bei.
[Quelle und weitere detaillierte Ausführungen]
Am Beispiel der magnetischen Momente wird deutlich, wie fatal sich falsche (Substruktur-)Annahmen auf die Entwicklung der Grundlagen-Physik auswirk(t)en. Im Ergebnis ist das SM am Ende und wir stehen wieder am Anfang. Es galt und gilt die Phänomenologie und Wechselwirkung des „Feldes“ denkmodell-plausibel zu gestalten, bevor eine Formalisierung erfolgt.
Es
geht noch deutlich beliebiger, siehe exemplarisch Frank Anthony
Wilczek’s Axionen, die er nach einem Waschmittel benannte, und
die „Axionen-erzeugende“ Peccei-Quinn-Weinberg-Wilczek-Theorie (http://www.physik.uzh.ch/lectures/astro/10/vorlesung/Schumann_Axions.pdf
) Am Rande bemerkt: 1973 führte Frank Wilczek
zusammen mit David Gross die Asymptotische Freiheit ein. Diese besagt,
daß die Starke Wechselwirkung zwischen Quarks umso schwächer ist, je näher
diese beieinander sind. Falls zwei Quarks extrem nah zusammen sind, ist
die Wechselwirkung so schwach, daß sie sich nahe zu wie „freie
Teilchen“ verhalten. Die Asymptotische Freiheit wurde auch von David
Politzer „entdeckt“. Alle drei bekamen dafür 2004 den Nobelpreis.
Das
Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der
Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2, die
Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.
SCHMERZBEFREIT Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ−. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung. Weitere SM-Aussage: ..." Δ+ und Δ0 besitzen denselben Quarkinhalt wie die Nukleonen Proton und Neutron und können deshalb als deren Spinanregung aufgefasst werden."...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes.
Die an sich schon erkenntnistheoretisch aussichtslose Beliebigkeits-Situation des Standardmodells wird noch sinnfreier, wenn man sich anschaut, wie im Rahmen der Quantenelektrodynamik (QED) die elektrische Ladung "verstanden" wird. Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung. Am Rande bemerkt: Im Rahmen der Mathematik der QFT hat (schon) das Vakuum eine unendlich große Ladung (die wieder verschwinden muß und "Theorie sei dank, wieder verschwindet").
Da die QED ein "Vorbild" für die Quantenchromodynamik (QCD) war (ist), drängt sich zur Ausgestaltung der Verwirrung die Frage auf, was im Standardmodell der Teilchenphysik denn nun als punktförmig, respektive strukturlos verstanden wird. Ist ein Elektron umgeben von virtuellen Photonen und virtuellen Elektron-Positronen-Paaren punktförmig und ohne Struktur? Man könnte, nein man muß im guten Glauben an minimalistische Wissenschaftsstandards zu der Erkenntnis kommen, daß SM-Physiker nicht wissen, wie die elektrische Ladung QED basierend "verstanden" wird, denn "alles andere" führt erkenntnistheoretisch geradlinig in eine pathologische Situation. Denn losgelöst von der Tatsache, daß dieses mathematische moderne QFT-Theater insgesamt haltlos ist, ist ein Konstrukt aus Theorieobjekten (virtuelle was auch immer...) und einer realphysikalisch vorhandenen Masse und realphysikalisch meßbaren Ladung weder Punkt noch strukturlos! Ohne das hier durchzuexerzieren gilt „Ähnliches“ für den gleichen Spin von Elektron und Proton. Nur soviel an dieser Stelle: Der postulierte, quantenmechanisch Theorie beladene Spin wurde noch nie gemessen, die Theoriegrösse Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches Moment. Das magnetische Moment lässt sich auf die Grössen elektrische Ladung und Masse zurückführen. Was sie auch immer mit welchen auch immer postulierten Theorieobjekten treiben - und wenn sie sich im Gedankenexperiment selbst in Pionenwolken-Konstrukte setzen und die Steuerung übernehmen - daß Einzige was sie im Angesicht der unüberwindbaren Kluft zwischen SM-postulierter Substruktur und SM-postulierter leptonischer Strukturlosigkeit finden werden, ist vorprogrammiertes erkenntnistheoretisches "Versagen", es sei denn, "ihnen" geht ein Licht auf und sie verabschieden sich von parametrischen Glaubensbekenntnissen. Der "Sprung" von der Quantenelektrodynamik (QED) mit der Sommerfeldschen Feinstrukturkonstanten als „kleine“ Kopplungskonstante (k ~1/137) der Störungstheorie zur Quantenchromodynamik (QCD) mit k~1 erfolgt mittels der „Idee der Asymptotischen Freiheit“. Es wird „bequemerweise“ postuliert, daß die wachsende Energie kleinerer Abstände auch die Kopplungskonstante verkleinert. Auch hier wird Ergebnis orientiert theoretisch postuliert und ein beabsichtigtes „Ereignis“ konstruiert. Im Rahmen von 25 freien Parametern, wenn nötig neuen Quantenzahlen und wählbarem Substrukturierungsgrad kein Problem. Die Frage was experimentell überhaupt gemessen wird, erschließt sich nicht einer Quantenfeldtheorie freien Bewertung.
Das
bedeutet (zumindest für den Erkenntnistheoretiker mit Anspruch auf
wissenschaftliche Standards): Eine Theorie, die bereits auf formal
logischer Ebene in sich widersprüchlich ist, braucht im Grunde nicht
empirisch überprüft zu werden, da aus einer falschen Annahme jede
beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit
jeder Beobachtung vereinbar ist. An diesen Beispielen wird klar, daß realphysikalisch orientierte Alternativ-Denkmodelle niemals von Quantenfeldtheoretikern geduldet werden können, da diese das gesamte quantenmechanisch-mathematische Denkgebäude der letzten 100 Jahre zerstören und Gegenwarts- sowie Zukunfts-Perspektive der Quantenfeldtheorien auslöschen. Mit „umgangssprachlichen“ Worten: Die „schlichte“ Realität das weltliche Objekte Masse besitzen und Raum ausfüllen wird im Denkmodell der Modernen Grundlagenphysik mikroskopischer Dimensionen programmatisch verdrängt, damit Egozentrik und Axiomatik der herrschenden Systemphysiker erhalten bleiben. Die Epizykeltheorie lässt grüssen. Physikalisch wäre es interessant zu wissen, wie denn nun die elementaren Punkt-Objekte der Quantenfeldtheorien zu dem werden, was im realphysikalischen Alltag (erlebbar) existent ist. Hier stellt sich für besonders Neugierige im Sinne massenpsychologischer Konzepte (…siehe u.a. Die Psychologie der Masse, Gustave Le Bon…) grenzüberschreitend die Frage, ob man Quantenfeldtheoretiker neurologisch untersuchen lassen sollte? Das grundsätzliche Problem steckt omnipräsent in dem "Umstand", daß alle Theorie-Parameter und meßtechnisch erfassbaren Grössen im Rahmen der Quantenfeldtheorien sekundäre Begriffe "verkörpern". Mathematische Zeichen sind sekundäre Begriffe und stehen nur für sich selbst und bekommen erst durch ihr Vorkommen in Definitionen, Axiomen, Postulaten,... eine Bedeutung. Wenn man ein Wort oft hört oder liest, es aber nicht gelingt, das Wort mit einem primären Begriff zu verknüpfen, übernimmt leicht der sekundäre Begriff die Funktion des primären. Das Wort steht dann für einen Begriff, der nur für sich selbst steht. Man entwickelt ein Gefühl für den Begriff und glaubt ihn schließlich zu verstehen. Masse und elektrische Ladung sind "prominente" unverstandene sekundärere Begriffe. Felder, Photonen, erst recht virtuelle Photonen und virtuelle Elektronen-Positronen-Paare und weitere "sekundär-artverwandte", postulierte Theorieobjekte machen offensichtlich jeden mathematischen Nonsens mit. Für heutige Theoretiker scheint die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen zu sein. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Die neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie« (SUSY) welch Geistes Kind ihnen inne wohnt. Ohne das an dieser Stelle weiter auszuführen, zeichnet sich schon „jetzt“ vordergründig ab, daß das den Experimenten am LHC zu Grunde liegende theoretische Modell durch »formalistische Machenschaften« jedwede Abweichung vom theoretischen Erwartungswert zu kompensieren vermag. Sei es durch weitere Quantenzahlen, mittels neuer Theoriegrössen, durch beliebiges Weglassen von - als unphysikalisch bezeichneten (stets mathematisch generierten) - Theoriegrössen, variablen Kopplungskonstanten, einer Vielzahl freier Parameter, wenn nötig bzw. gewünscht neuen Wechselwirkungsmechanismen und postulierten asymmetrischen Substrukturierungen. (Moderne) Wissenschaft ist dann aber nichts weiter, als etwas, worauf man sich geeinigt hat.
Tatsache ist: Wir verfügen über keine
allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage
und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser
Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall
des SM - die Theorie bestimmt, was gemessen werden soll. Zum Mitdenken:
Eine Theorie, die bereits auf formal logischer Ebene in sich
widersprüchlich ist, braucht im Grunde nicht empirisch überprüft zu
werden, da aus einer falschen Annahme jede beliebige Aussage folgt und
damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar
ist.
Auf Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und Inkonsistenzen, die selbst von SM-Gläubigen anerkannt werden, wünschen die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“ schaffen. Die angestrebte theoretische Zukunft der Standardmodellphysiker ist die Supersymmetrie (SUSY) aber:
…
the discovery of the Higgs boson is a nightmare scenario for
everything else, including supersymmetry, extra dimensions, and
string theory. Because finding the standard model Higgs at this energy
means that there’s no need for any of those things. A Higgs at 125 GeV
and nothing else at the LHC, totally consistent with the standard model,
mean that if supersymmetry exists, it needs to be at such a high energy
that it no longer solves the problem it was designed to solve!...
SUSY Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert sondern demontiert. Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert Vollbeschäftigung. Mathematikgläubig liest sich das ungefähr so...
Supersymmetrische
Theorien Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Nach dem Coleman-Mandula-Theorem ist dies die einzige Klasse von Symmetrien der S-Matrix, die neben den Raum-Zeit-Symmetrien und den durch halbeinfache Lie-Gruppen beschriebene Eichsymmetrien noch denkbar ist. Wenn die Natur exakt supersymmetrisch wäre, so müssten die durch eine supersymmetrische Transformation verbundenen Bosonen und Fermionen in der Masse entartet sein. Die beobachteten Bosonen und Fermionen zeigen eine solche Massenentartung jedoch nicht, so daß die Supersymmetrie gebrochen sein muß und allenfalls eine näherungsweise Symmetrie der Natur sein kann. Ein phänomenologisch zulässiges supersymmetrisches Modell der Teilchenphysik ist durch die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) gegeben. Die Brechung der Eichsymmetrie beruht in diesem Modell, wie bei dem Standardmodell, auf dem Higgs-Mechanismus, so daß alle Aussagen zum Massenproblem im Standardmodell prinzipiell zunächst auch für das MSSM gelten. Als zusätzliches Problem taucht im MSSM die Frage auf, wie die Supersymmetrie gebrochen wird. Aufgrund dieser ungelösten Frage kommen zu den 25 freien Parametern des Standardmodells im MSSM weitere 106 freie Parameter hinzu, die überwiegend die Massen und die Mischungswinkel der Superpartner beschreiben. Ohne weitere Annahmen erlaubt die Supersymmetrie keinerlei tiefergehendes Verständnis der Fermionmassen. Unter der Voraussetzung, daß die Supersymmetrie unterhalb einer Skala von etwa 1 TeV gebrochen wird, läßt sich jedoch eine Obergrenze von ca. 130 GeV für das leichteste Higgs-Boson ableiten.
Dunkle
Materie
Die Annahme der Existenz von dunkler Materie stellt das
Standardmodell vor ein unlösbares Problem. Keines der
„Standardmodellteilchen“, auch nicht das Neutrino, ist ein
geeigneter Kandidat für dunkle Materie. In der Supersymmetrie hingegen
kommt das Neutralino, der Superpartner der neutralen Eich- und
Higgsbosonen, in Betracht.
Zwei
Higgsdubletts
Das Higgs-Boson muss also auch im MSSM explizit eingeführt
werden. Wie die anderen Teilchen erhält es einen Superpartner, das
Higgsino. Allerdings führt die Existenz von nur einem Higgsdublett und
seinem Higgsino zu einer Eichanomalie im elektroschwachen Sektor. Dies
kann durch die Einführung zweier Higgsdubletts und dazugehörigen
Higgsinos behoben werden. Ein weiterer Grund für die Existenz von
mindestens zwei Higgsdubletts im MSSM sind die Yukawakopplungen, die aus
den trilinearen Termen des Superpotentials stammen.
Brechung
der Supersymmetrie
Da man keine gleichschweren Superpartnerpaare in der Natur
beobachtet, müssen die Superpartner der Standardmodellteilchen
wesentlich höhere Massen haben. Eine Brechung der Supersymmetrie ist
demnach erforderlich. Aus theoretischer Sicht wäre eine spontane
Brechung durch ein asymmetrisches Vakuum wünschenswert, denn so könnte
die Lagrangedichte des MSSM weiterhin invariant unter
Supersymmetrietransformationen bleiben. Um das Natürlichkeitskriterium
der Superpartnermassen zu erfüllen, müsste eine solche Brechung bei
der Energieskala der Symmetriebrechung der schwachen Wechselwirkung
stattfinden. Dies ist allerdings phänomenologisch ausgeschlossen. Die
Supersymmetrie wird daher durch explizite Terme in der Lagrangedichte
gebrochen. Um die Natürlichkeit zu gewährleisten, dürfen durch die
Brechung keine quadratischen Divergenzen in den Strahlungskorrekturen
der Superpartnermassen auftreten. Man spricht von einer sanften
Brechung.
Teilcheninhalt
und Masseneigenzustände
Die gegenüber dem Standardmodell hinzugekommenen Teilchen
verdienen eine genauere Betrachtung, vor allem hinsichtlich ihrer
Massen. So liefert die Verdopplung der Higgsdubletts weitere skalare
Moden, die zu massiven Higgsbosonen mischen. Ähnliche Mischungen treten
bei den Superpartnern der Higgs- und Eichbosonen und denen der Fermionen
auf.
Wie die Eichbosonen der SU(2)L und U(1)Y
mischen auch die dazugehörigen Gauginos dank der elektroschwache
Symmetriebrechung zu Eigenzuständen der elektrischen Ladung. Die
geladenen Winos bilden mit den zwei geladenen Higgsinos gemischte
Masseneigenzustände.
An dieser Stelle sparen wir uns weitere Märchen zu Neutralinos, Sfermionen, usw. und zitieren Theodor Fontane,
Experimente sollen Symmetrien, nein müssen perspektivisch Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen. Das große erkenntnistheoretische ABER Werden die richtigen Fragen gestellt, erweist sich der reine mathematische Formalismus als Nullnummer der Erkenntnis. Selbst einfachste Sachverhalte stellen im Rahmen der herrschenden modernen Physik (nach wie vor) unlösbare Denk-Konstrukte dar. Beispiel: Ob elektrisches oder magnetisches Feld, das Gleichsetzen elektromagnetischer Grössen mit (mechanischer) Masse ist im Rahmen der "Modernen Physik" sinnfrei. Das Gleichsetzen einer elektrischen Zentripetalkraft mit einer (nur) masse-abhängigen Zentrifugalkraft ist mathematisch unproblematisch aber im Rahmen der hiesigen Physik phänomenologisch vollkommen unbegründet und erinnert, wie so oft, an die Epizykeltheorie. Assoziierte mathematische Gleichungen sagen auch nichts über den Grad der Näherung im Hinblick auf die real gemessenen Wechselwirkungs-Energien. Die zentrale Frage lautet: Wie wechselwirkt eine Masse, phänomenologisch anschaulich begründet, mit einer elektrischen Ladung? Das „reine“ mathematische Gleichsetzen von massebehafteter und elektrischer Kraft beinhaltet keine Information über die Phänomenologie. Hier liefert das Denkmodell der Elementarkörpertheorie eines stets inhärent massegekoppelten Raumes anschauliche, phänomenologisch begründete Lösungen, die rechnerisch aus einfachen formal-analytischen Gleichungen bestehen.
Masse-Radius gekoppelter realphysikalischer Vorgeschmack
Zur Erinnerung: Was ist eine physikalische Gleichung? Eine physikalische Gleichung besteht aus maßgebenden Größen (Ladung, Masse, Radius,...), möglicherweise Naturkonstanten, Koeffizienten und Rechenvorschriften. Der Sinn einer physikalischen Gleichung besteht darin, in Abhängigkeit der vorkommenden Gleichungsbestandteile eine qualitative und quantitative Aussage zu treffen. Begriff der elektrischen Ladung Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse und dem Radius des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Das ist aber nicht der Fall. Elektrische Ladung ist "nichts weiter" als eine (skalierte) Masse-Radius-Funktion. Der Irrglaube über die (unbekannte) Natur der elektrischen Ladung bzw. Spekulationen über diese beruhen auf den historischen Denkmodell-Entwicklungen. Elementarkörpertheorie basierend sind alle Ladungswechselwirkungen auf Masse-Radius-Kopplungen zurückzuführen. Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert. Hier ist natürlich zu beachten, daß alle verwendeten Größen in Zentimeter, Gramm und Sekunde richtig dimensioniert werden (müssen).
Sommerfeldsche Feinstrukturkonstante Konsequenterweise wird die Feinstrukturkonstante α Elementarkörpertheorie basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von Gesamt-Energie (Elementarkörperladung q0 als (Funktion des) Radius-Masse-Äquivalent) und elektrischer Energie mittels der elektrischen Elementarladung e. Hier ist zu bemerken, daß quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.
Vergleich: Elementarkörpertheorie und "herrschende Physik" und "Herkunft/Bedeutung" der Sommerfeldschen Feinstrukturkonstanten α f7 wurde eingeführt, um suggestiv zu verdeutlichen, daß es sich bei der [Elementarkörper-]Ladung ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit nur eine sekundäre Grösse, die aus der elektrischen Elementarladung "entstammt".
Was ist Masse? In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe das Kapitel: Impulsmasse-Inversion
Die Comptonwellenlänge λC entspricht energetisch dem Elementarkörper-Radius r0 der inhärent mit der Elementarkörper-Masse m0 gekoppelt ist :
Energetisch ist die Compton-Wellenlänge λC also nicht das Resultat einer vollen Periode 2π, wie in der "herrschenden" Physik, sondern nur einer Viertelperiode ½ π. Diese "Äquivalenzbeziehung" ergibt sich direkt aus der Elementarkörper-Dynamik. Formal entspricht das einer reziproken Proportionalität, welche durch die Masse-Radius-Konstanten-Gleichung [F1] ausgedrückt wird :
Nicht die assoziierten spektroskopischen Meßergebnisse der Experimentalphysik werden generell angezweifelt, sondern die resultierenden Interpretationen basierend auf deren theoretischen Grundlagen. Die Argumentation der Protagonisten und Anhänger der ursprünglichen Quantenmechanik, folgend der Quantenfeldtheorien und letztendlich des Standardmodells der Teilchenphysik (SM), daß diese durch experimentelle Ergebnisse Bestätigung fanden und finden, sagt also wenig aus, da die Theorien immer wieder den Meßergebnissen angepasst wurden. Realphysikalische Sachsituationen zu Ladung und Spin, 25 freie Parameter, variable Kopplungskonstanten und Confinement-These reichen bereits aus, um die Entscheidung zu treffen, sich nicht weiter mit dem SM als physikalisches Denkmodell zu beschäftigen. Wir könnten das Quark-Gluonen-Seequark-Proton-Modell ohne weitere Gedanken entsorgen. Wir müssten es entsorgen. Diesem logisch rationalen Schritt stehen aber 50 Jahre Standardmodell-Entwicklung, einige assoziierte Nobelpreise für Physik, tausende Lehrstühle für Theoretische Physik, abertausende beteiligte Wissenschaftler, milliardenteure Apparaturen, populärwissenschaftlich indoktrinierte SM-Anhänger, servile Wissenschaftsmedien und keine Alternativmodelle, die sich das SM einverleiben könnte, entgegen. Die jetzige Situation des Standardmodells der Teilchenphysik ist ergebnisorientiert vergleichbar mit der Epizykeltheorie kurz vor ihrem Ende. Aber wer schmerzbefreit ist und Spaß am Lesen hat...noch ein paar Bemerkungen zum "SM".
und bitte...
In
einem großen Bild sind nicht nur (physikalische) Denkmodelle sondern
auch die (axiomatische) Mathematik unvermeidbare "Artefakte des
menschlichen Denkens". Wenn Physiker von Artefakten in ihren Theorien sprechen, dann sprechen sie eigentlich vom Artefakt
im Artefakt.
Moderne
Mathematik hat im Bereich der Theoretischen Grundlagenforschung die
physikalische Anschauung fast komplett abgeschafft. Schon
Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das
unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein
Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen
selbst der große Euler nach seinem Geständnisse sich nicht immer
erwehren konnte."
[EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
„Zu
jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das
zu messende System nötig, der das System unter Umständen empfindlich stört.
Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten
Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“
Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein
praktisch durchführbares Experiment kann jedoch nur die Energie in einem
Bereich mit verwaschenen Grenzen liefern.“
[Aussage Werner Heisenberg 1931] Theorien werden von ihren Autoren im Hinblick auf schon bekannte oder richtig vermutete, empirisch prüfbare Phänomene entwickelt. Dass diese Phänomene sich dann aus den Theorien, zwar nicht immer sehr überzeugend, wieder ableiten lassen, ist wenig erstaunlich. Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Physikalische Theorien sind Idealisierungen. Nur die Genauigkeit, mit der eine Theorie mit den Phänomenen übereinstimmt, kann empirisch festgestellt werden. Die grundsätzliche Wechselwirkung zwischen theoretischer Erwartung und Versuchsgestaltung ist in der experimentellen Teilchenphysik sehr problematisch, da der Experimentator und "seine" Versuchsapparaturen meist einen komplexen Einfluss auf die Messung nehmen. Folgende Frage entlarvt das Vorgehen der Teilchenphysiker als selbstprophetischen Akt:
Wie
reduziert man in einem Teilchen-Ensemble die Aussage über Streuzentren
während der Kollisionen auf die innere Struktur eines einzigen
Teilchens? Das
ist offensichtlich bei der Anzahl der Teilchen nur durch den
theoriebeladenen Wunsch möglich. Die Interpretationen der
Versuchsergebnisse sind somit nahezu frei wählbar.
Beispiel: Was man sich unter angewandter »Quantenfeldtheorie« vorstellen kann und wie die Theorie starken Einfluss auf die experimentelle Erwartung hat, „erörtert“ folgende exemplarische Ausführung: „Teilchenphysik für Fortgeschrittene“ Quelle
...Annahmen
und Postulate
„Teilchenphysik
für Fortgeschrittene“ Seite 68… „In der e+e-
-Streuung werden in 10 % der Fälle nicht nur zwei sondern 3 Jets
beobachtet, wobei die Winkelverteilung der Jets untereinander mit der
Erwartung für die Abstrahlung eines Spin 1 Teilchens (“Gluon”) von
einem Spin 1/2 Teilchen (Quark) übereinstimmt. Auf diese Weise wurde
das Gluon am PETRA Beschleuniger bei DESY entdeckt.“... Hier „sieht“ man exemplarisch, wie aus einem „objektiven“ Versuchsergebnis ein vollkommen subjektives Interpretations-Ergebnis erhalten wird. 10% Ereigniswahrscheinlichkeit fallen vom Himmel und ohne Gluonenpostulat widerlegt das Versuchsergebnis schlicht die Theorie der Quarks. Nach diesem Muster werden theoriebeladen alle „abweichenden“ Versuchsergebnisse „interpretations-gestrickt“. Weitere Kostprobe: …“Die Häufigkeit von etwa 10% dieser 3-Jet Ereignisse deutet auf eine große Kopplungskonstante zwischen Quarks und Gluonen hin“, … na wer sagt es denn. 10% fielen vom Himmel und das Versuchsergebnis wird aus Sicht der Selbst-Gläubigen mit einer variablen Kopplungskonstante theoriefreundlich versehen.“ …„Teilchenphysik für Fortgeschrittene“ Seite 78… „In der 4-Jet Produktion ist der Wirkungsquerschnitt sensitiv auch auf die Selbstwechselwirkung der Gluonen, da sowohl die Quarks als auch Gluonen weitere Gluonen abstrahlen können.“… also plumpe Frechheit siegt. Diese Art der selbstprophetischen Argumentation ist offensichtlich nicht widerlegbar. Welchen Erkenntnisgewinn kann man daraus ableiten? Das eine gewisse Anzahl von Menschen es geschafft haben, im Rahmen selbstdefinierter Willkür letztendlich egoistisch motivierte wirtschaftliche Existenzen zu begründen? Herzlichen Glückwunsch!
Mehr denn je müssen wir uns die Frage stellen, was wird im Standard Modell eigentlich postuliert und gemessen? Wie konnte bzw. kann man das "Falsche" so gut "verkaufen" ohne die Theorie aufzugeben? Eine emotionale, unphysikalische Erklärung liefert die Seelennatur des Menschen. U.a. Eitelkeit, Opportunismus und Ideologie der herrschenden Physik-Protagonisten führten zu einer starken Lobby. Vergleichbar mit den Machern und Mächtigen eines monotheistischen Weltbilds. Glaubensstrukturen sind weder "belehrbar" noch reformierbar. Merke: Anstatt eine Theorie auf Grund schwerwiegender Inkonsistenzen und theorie-konträrer meßtechnischer Ereignisse als widerlegt zu betrachten, werden neue Teilchen und mitunter neue Eigenschafts- und Verknüpfungszahlen, "Mischwinkel" und »Ähnliches« postuliert, um die jeweils auftretenden Diskrepanzen zwischen Theorie und Messergebnissen zu erklären. Für diese Methodik gibt es offensichtlich keine "natürlichen", formalen und schon gar keine menschlichen Grenzen. Die Wenigsten sägen den Ast ab, auf dem sie sitzen. Doch irgendetwas ist gehörig schief gelaufen. Standardmodell-Herrscher und Standardmodell-Macher haben eine Karte gespielt, die sie nie hätten spielen dürfen. Die Tabu-Karte heißt Confinement. Das Postulat, daß wesentliche Theorieobjekte gemäß des theoretischen Ansatzes nicht beobachtet werden können, bedeutet, sich jegliche, mögliche Kritik für immer vom Leibe zu halten. Das passt zwar sehr gut zu dem unübertroffen naiven Vorgehen der SM-Lenker und SM-Denker und zeugt von größtmöglicher Dekadenz, doch diese Form der Erkenntnisverachtung ruft früher oder später Kritiker auf den Plan, die konzentriert und hochmotiviert, rhetorisch und fachlich das tun, was sie schon längst hätten tun müssen. Es ist nur noch eine Frage der Zeit bis dieses, aus erkenntnistheoretischer Sicht, freche und zugleich hochpeinliche "Beliebigkeits-Denkmodell-Kondensat" in den »großen Quark« kommt und sich dort auflöst. Stell´ Dir vor es geht.
erst einmal soweit...
Eine weitere Konkretisierung der Probleme des Standard Modells findet sich bei der Darstellung und Wechselwirkung der Neutrinos, siehe DAS NEUTRINOPROBLEM
Das Kapitel Spin & Magnetische Momente offenbart das omnipräsente Dilemma phänomenologiefreier Formalismen. Es wird u.a. plausibel gezeigt, daß die experimentellen Werte der magnetischen Momente von Proton und Neutron kein Indizien für eine Substruktur liefern. Ganz im Gegenteil.
|