SRP LOGO Articles publiés Soft Collision Side
Français
English
English
Deutsch

SRP Table à coussin d'air Comment commander Books The Science Journal The Minkowski Institute International Council of Academics or Progressive Education

Neurolinguistik und Fundamentalphysik

Physique fondamentale

Reden und andere veröffentlichte Artikel


Vortrag im Plenarsitzung am 7. Juli 2000
auf dem Kongress CONGRESS-2000
gehalten an der Staatlichen Universität St. Petersburg, Russland

(Einleitung zum Artikel
"On an Expanded Maxwellian Geometry of Space"
(Über eine erweiterte Maxwellsche Geometrie des Raums)
auf dem Kongress vorgestellt [Seite 291-310 der Sitzungsberichte])

Aus meiner Sicht sollte eine physikalische Theorie ausschließlich aus experimentell gewonnenen Informationen entwickelt werden, wie zum Beispiel die Newtonsche Theorie, die Maxwellsche Theorie und das Konzept des Planckschen Wirkungsquantums.

(1- Identifizierung des begrenzten Satzes stabiler Teilchen)

In den letzten 100 Jahren wurden alle stabilen Elementarteilchen, die durch Kollision abgelenkt werden konnten, also das Elektron, das Positron und die Quarks Up und Down , sowie alle ihre physikalischen Eigenschaften eindeutig identifiziert.

Die Beobachtung, dass die Gravitation trotz dieser verifizierten Entdeckungen noch nicht erklärt wurde, hat mich, wie viele andere, jeder aus seinen eigenen Gründen, zu dem Verdacht veranlasst, dass etwas sehr Grundlegendes in der fundamentalen Physik missverstanden oder übersehen worden sein könnte.

Dieser Verdacht veranlasste mich, die akzeptierte Raumgeometrie zu überdenken und sorgfältig zu überprüfen, welche Eigenschaften der Teilchen positiv verifiziert worden waren - eine Übung, die zur Entwicklung der vorliegenden theoretischen Lösung führte, die ausschließlich auf den objektiv verifizierten Eigenschaften der stabilen fundamentalen Teilchen beruht.

(2- Über die Verlust des Interesses an der zeitlichen Abfolge von Ereignissen)

Rückblickend stelle ich fest, dass die Akzeptanz der Quantenelektrodynamik, die das Konzept der virtuellen Photonen einführte, und ihres direkten Ablegers, der Quantenchromodynamik, die das Konzept der virtuellen Photonen auf das der virtuellen Teilchen erweiterte, als physikalische Theorien anstelle von lediglich praktischen mathematischen Werkzeugen ein entscheidender Faktor für die Vernachlässigung im letzten halben Jahrhundert war, der Bedeutung der Coulomb-Wechselwirkung auf fundamentaler Ebene, weil er die Auffassung verallgemeinerte, dass pseudoquantisierte virtuelle Entitäten physikalisch das Coulomb-Potenzial darstellen könnten, das zwischen realen Teilchen während hochenergetischer Kollisions- oder Ablenkungsexperimente allmählich induziert wird, und zwar als Funktion des Kehrwerts des Quadrats des Abstands zwischen den wechselwirkenden Teilchen.

Ich glaube auch, dass die allgemeine Akzeptanz der statischen Lagrangeschen Methode anstelle der dynamischen Hamiltonschen Methode, wie von Feynman im Rahmen seiner Definition der Quantenelektrodynamik (QED) vorgeschlagen, eine direkte Ursache für den Verlust des Interesses an der Tatsache war, dass Kollisionen und Ablenkungen von Teilchen präzise zeitliche Abfolgen von Ereignissen sind.

Feynmans Schlussfolgerung, dass die Verwendung der Hamiltonschen Methode die Annahme des Kraftfeldstandpunkts anstelle des Wechselwirkungsstandpunkts erzwingt, ist meiner Meinung nach unbegründet, denn es lässt sich leicht argumentieren, dass eine Wechselwirkung zwischen Teilchen nicht anders als gleichzeitig und wechselseitig sein kann, genau wie im Kraftfeldstandpunkt.

Wenn, wie Feynman vorschlägt, die Coulomb-Wechselwirkung nur durch den Austausch virtueller Photonen zwischen den beteiligten Teilchen vermittelt wird, kommen mir folgende Fragen in den Sinn:

(3- Über die Tatsache das jede Wechselwirkung beinhaltet sowohl eine Kraft als auch etwas Energie)

Ich sehe hier ein klares Kausalitätsproblem, denn eine Vermittlung des Austauschs durch virtuelle Photonen, wie sie Feynman vorschlägt, vermischt zwei grundlegend sehr unterschiedliche Aspekte der Beziehung zwischen Teilchen:

Es gibt auch das Problem, dass virtuelle Photonen per Definition diskrete Größen sind, was zu implizieren scheint, dass das Potenzial in diskreten Inkrementen zwischen den Teilchen induziert wird, was in direktem Widerspruch zu der Tatsache steht, dass die Bewegungsenergie in jeder beliebigen Entfernung gemäß dem verschwindend progressiven Gesetz des Kehrwerts des Quadrats der Entfernung allmählich induziert wird.

(4- Über die Wichtigkeit der zeitlichen Abfolge der Ereignisse)

Da Kollisions- und Ablenkungsereignisse physikalisch nicht instantan sind, glaube ich auch, dass es ernsthafte Gründe gibt, Feynmans Meinung in Frage zu stellen, wenn er erklärt, und ich zitiere:

"Für mehrere Probleme, z. B. die Kollision von Teilchen, sind wir nicht an der genauen zeitlichen Abfolge der Ereignisse interessiert. Es ist nicht von Interesse, sagen zu können, wie die Situation zu jedem Zeitpunkt während einer Kollision aussieht und wie sie von einem Moment zum nächsten fortschreitet." ([6], S.771)

Es versteht sich von selbst, dass ich Feynman zutiefst widerspreche, denn diese Forschungsphilosophie hat die nachfolgenden Generationen von Physikern dazu veranlasst, es in den letzten 50 Jahren zu vermeiden, die letzte noch unerforschte Grenze der Grundlagenphysik zu erkunden.

Ein weiteres Argument für die Ansicht, dass virtuelle Photonen keine physikalische Realität sein können, ist Bohrs eigene Beobachtung, dass die quantisierten Zustände des Atoms stabil sind, dass diese Zustände nicht von Strahlung begleitet sein können und dass die Existenz dieser nicht strahlenden Zustände mit der Idee der Quantenstabilität übereinstimmt ([1], S.134). Darüber hinaus stimme ich mit de Broglie völlig überein, wenn er sagt, dass die Existenz von Quanten eine ganz besondere Art von Untergrenze für Störungen impliziert, die in den betrachteten Systemen existieren können ([1], S.20).

Daher scheint die Wahrnehmung, dass Strahlung von Elektronen in Ruheorbitalen emittiert werden könnte, z. B. durch virtuelle Photonen oder einen anderen Mechanismus, in direktem Widerspruch zur eigentlichen Grundlage der Quantenmechanik zu stehen, denn die Beobachtungen von Bohr und de Broglie scheinen zu implizieren, dass eine Art Schwelle überschüssiger Energieintensität auf dem lokalen Gleichgewichtsniveau des Coulomb-Potenzials erreicht oder überschritten werden muss, bevor ein Photon emittiert werden kann; Das Erreichen eines solchen Schwellenwerts würde die Umwandlung in den Photonenzustand einleiten und einen gemessenen Anteil des nicht quantisierten lokalen Potentials aus dem System entfernen, wodurch das lokale Gleichgewicht wiederhergestellt werden kann.

In Anbetracht der möglichen Existenz einer solchen relativen Quantifizierungsschwelle scheint mir die physikalische Existenz virtueller Photonen als Vermittler einer Wechselwirkung, die in der Induktion einer potenziellen Energie zwischen den beteiligten Teilchen resultiert, die per Definition nicht quantifiziert ist, nur weil ihre relative lokale Intensität diese Schwelle noch nicht erreicht hat, höchst fragwürdig, außer als praktische mathematische Darstellung.

(5- Über die Notwendigkeit, eine grundlegende Geometrie des Raumes neu zu definieren)

In Bezug auf Maxwells Geometrie besagt die ausgefeilteste mir bekannte Beschreibung der Raumgeometrie, die der Maxwell-Theorie zwingend zugrunde liegen muss, lediglich, dass sich ein Magnetfeld und ein elektrisches Feld orthogonal schneiden und dass die Kombination beider die Bewegungsrichtung der Energie im Raum im rechten Winkel schneidet.

Da eine solche Wellenenergie, wenn sie denn als solche existieren würde, sich kugelförmig im Raum ausdehnen würde, und obwohl mir nie bekannt war, dass dieser Punkt hervorgehoben wurde, ist mir möglicherweise aufgefallen, dass entgegen der allgemein akzeptierten Ansicht, die von Maxwell angenommenen, sich orthogonal schneidenden magnetischen und elektrischen Felder möglicherweise nicht innerhalb unseres dreidimensionalen Raums, wie wir ihn kennen, liegen, da ihr Schnittpunkt anscheinend als orthogonal zum Raum selbst definiert werden muss, wie wir bald sehen werden. Die logische Schlussfolgerung schien mir zu sein, dass diese Geometrie die Existenz von noch nicht erforschten Extraraumdimensionen impliziert.

Um die Maxwellsche Geometrie leichter zu visualisieren, da es uns unmöglich erscheint, mehr als drei Dimensionen gleichzeitig zu visualisieren, habe ich mir daher angewöhnt, die drei Dimensionen des normalen Raums gedanklich so zu falten, als wären sie die Rippen eines metaphorischen 3-Rippen-Regenschirms. Dieser Kunstgriff ermöglichte es mir, die gesamte Geometrie so zu visualisieren, als würde ich ein normales 3-achsiges euklidisches geometrisches System betrachten, wobei die x-Achse das Magnetfeld, die y-Achse das elektrische Feld und die von der x- und y-Achse bestimmte Ebene, die sich mit Lichtgeschwindigkeit entlang der z-Achse bewegt, den normalen dreidimensionalen Raum darstellt.

Nachdem ich die Idee des "Regenschirms" auf die Achse angewandt hatte, die den normalen Raum darstellt, kam mir natürlich die Idee, sie auch auf die beiden anderen Achsen anzuwenden, wodurch eine seltsame Geometrie mit drei orthogonal koexistierenden Räumen definiert wurde, von denen jeder drei Dimensionen hat, ein metaphorischer "Rubik-Würfel", den ich sehr gerne manipulierte, indem ich die kleinen Regenschirme nacheinander öffnete oder schloss, um die gesamte Geometrie weiterhin leicht visualisieren zu können. Natürlich haben diese Öffnungen und Schließungen der "Schirme" keinen Einfluss auf die realen Räume, die dargestellt werden. Diese Räume sind in ihrer gesamten Ausdehnung ständig voll geöffnet.

Mit diesem Bezugsrahmen habe ich dann versucht, alle verifizierten Eigenschaften der fundamentalen Teilchen zu verbinden, wobei jedes dieser Teilchen zum Fokuspunkt eines lokalen Auftretens eines Schnittpunkts der drei Räume wird und jedes dieser Teilchen von den anderen Teilchen durch die totale Leere getrennt ist.

(6- Über die interne dynamische elektromagnetische Struktur des de Broglie-Photons)

Das genaue Informationselement, das die Argumentationskette auslöste, die zu der hier vorgeschlagenen Lösung führte, ist jedoch eine von Louis de Broglie gezogene Schlussfolgerung, dass Photonen nicht aus einem Korpuskel bestehen müssen, wie allgemein angenommen wird, sondern aus zwei Korpuskeln oder Halbphotonen, die komplementär wären, so wie das Elektron komplementär zum Positron ist.

Eventuell entwickelte ich eine klare Vorstellung von einer Umwandlungsmechanik, die plausibel erklärt, wie ein solches Photon, das genügend Energie besitzt, in einer solchen Geometrie in ein Elektron-Positron-Paar umgewandelt werden kann. Schließlich nahm eine plausible Mechanik der Wechselwirkung von Elektronen und Positronen Gestalt an, die einen Schlüssel zum Verständnis liefert, wie Protonen und Neutronen entstehen können.

Das Ergebnis ist eine kontinuierliche Reihe von klar definierten Wechselwirkungssequenzen, die eine ununterbrochene kausale Verbindung bereitstellen, angefangen bei den nicht quantisierten Mengen an Bewegungsenergie, die durch Beschleunigung zwischen den Teilchen durch Coulomb-Wechselwirkung induziert werden, bis hin zur Quantisierung dieser Energie in Form von Photonen, wenn die relative Quantisierungsschwelle lokal erreicht wird, zur Entstehung von Elektronen und Positronen bei der Destabilisierung von Photonen mit ausreichender Energie, und schließlich zur Entstehung von Protonen und Neutronen aus der Wechselwirkung von Elektronen und Positronen, wenn sie zur Wechselwirkung in ausreichend begrenzten Raumvolumina gezwungen werden.

Eine solche Geometrie mit neun Dimensionen, die auf drei Räume verteilt sind, ist meiner Meinung nach der kleinste Bezugsrahmen, der die Entwicklung eines so klar definierten Kausalzusammenhangs noch ermöglichen kann.

(7- Über die Harmonisierung der etablierten Theorien)

Die überraschendste Folge jedoch scheint eine Bestätigung von Newtons Gravitationstheorie in einer präziseren Form zu sein, die, indem sie das Konzept des "Punktteilchens" durch das des "geladenen Punktteilchens" ersetzt, eine zur Allgemeinen Relativitätstheorie alternative Erklärung für den Newtonschen Fehler bei der Berechnung des Perihelvorlaufs des Merkur ermöglicht, der korrekten Berechnung der Ablenkung der Photonenbahnen durch die Sonne, der Zunahme der Frequenz der von Cäsiumatomen emittierten Photonen in Cäsiumuhren mit zunehmender Höhe und bietet eine gravitative Lösung für das Problem der unerklärten anomalen, zur Sonne gerichteten konstanten Restbeschleunigung, die bei den Weltraummodulen Pioneer 10/11, Galileo und Ulysses beobachtet wurde.

Als weitere überraschende Konsequenz scheint diese Lösung eine natürliche Brücke zwischen Maxwells Elektromagnetischer Theorie - die sie auf eine Weise bestätigt, die es ihr ermöglicht, Photonen, die Coulombsche Wechselwirkung und Newtons Gravitationstheorie direkt zu beschreiben - zu schlagen, und dass sie eine neue Perspektive auf die Gesamtheit der akzeptierten orthodoxen Theorien bietet, d. h. auf die Spezielle Relativitätstheorie, die Quantenmechanik, die Quantenelektrodynamik, die Quantenchromodynamik sowie auf viele der Postulate, die nun als gegeben vorausgesetzt werden.

(8- Über die ungelösten Probleme)

Eine Reihe von ungelösten Fragen wird in diesem Artikel behandelt. Zum Beispiel die de Broglies wichtige Schlussfolgerung über eine mögliche innere Struktur von Photonen, die in Verbindung mit Abrahams und Kaufmanns Entdeckung der Unempfindlichkeit der unidirektionalen kinetischen Energie gegenüber jeder quer angewandten Kraft der eigentliche Schlüssel zur Konstruktion der letzten fehlenden kausalen Verbindung zwischen der kinetischen Energie, die sich durch die elektromagnetische Beschleunigung der Teilchen ansammelt, und der Energie, aus der die Up- und Down-Quarks bestehen müssen, zu sein scheint.

Die Spezielle Relativitätstheorie ihrerseits ist noch nicht geeignet, die innere adiabatische Kontraktion und Expansion komplexer Teilchen wie Protonen und Neutronen in Abhängigkeit von der lokalen Stärke der elektrostatischen Wechselwirkung zwischen den geladenen Elementarbestandteilen der umgebenden Materie (Up- und Down-Quarks) und der Auswirkung dieser Wechselwirkung auf die lokale Ruhemasse dieser komplexen Teilchen in Abhängigkeit von der lokalen Dichte der umgebenden Materie (der lokalen Stärke der Schwerkraft) zu erklären. Die SR behandelt Protonen und Neutronen weiterhin so, als wären sie Elementarteilchen, deren Ruhemasse invariant ist!

Könnte dies der Grund dafür sein, dass derzeit niemand die Flugbahnen der Raumsonden Pioneer 10 und 11 korrekt berechnen kann, selbst mit den Gleichungen der Allgemeinen Relativitätstheorie (AR), einer Theorie, die angeblich das letzte Wort über alle beobachteten gravitativen Trägheitsphänomene hat? Außerdem lassen die für andere Raumfahrzeuge gesammelten Daten endgültig die Möglichkeit aufkommen, dass dieses "vermeintlich anormale" Beschleunigungsphänomen systematisch ist und auf einen Aspekt der grundlegenden Realität zurückzuführen ist, der von den herkömmlichen Theorien noch nicht erfasst wird.

In der Tat war die AR im letzten Jahrzehnt Gegenstand hartnäckiger und erfolgloser Untersuchungen, um einen Weg zu finden, zwei verschiedene sogenannte Anomalien zu erklären, die bei den Pioneer-Raumschiffen beobachtet wurden, wobei die eine einen selten dokumentierten, angeblich "anomalen" Verlust des Drehimpulses um ihre Rotationsachse betraf und die andere sich auf eine sogenannte "anomale" Beschleunigung bezog, die auf die Sonne gerichtet war, während sie auf ihren hyperbolischen Flugbahnen im Prozess der Flucht aus dem Sonnensystem waren.

Könnten diese AR-Versagen darauf zurückzuführen sein, dass die SR (mit der die AR eng verbunden ist) noch nicht die relativistischen Implikationen der Tatsache berücksichtigt, dass Protonen und Neutronen nicht elementar sind und dass ihre momentane Ruhemasse durchaus von lokalen Geschwindigkeiten abhängen könnte, die von der Stärke der elektrostatischen Kraft zwischen den Quarks abhängen, aus denen ihre Struktur besteht? Dieses Modell wird in Aussicht stellen, wie die effektive Ruhemasse komplexer Teilchen korrekt integriert werden kann.

Weitere sehr gut dokumentierte Phänomene, das die SR und die AR nicht erklären können, sind die Tatsache, dass sich der Mond allmählich mit einer Rate von etwa 3,8 cm pro Jahr von der Erde entfernt und dass die Erdrotation im Sommer höher ist als im Winter und von Jahr zu Jahr stetig abnimmt, in einer Weise, die keine der gegenwärtigen Theorien erklären kann.

Wir werden untersuchen, wie diese Phänomene möglicherweise aus demselben fundamentalen Grund erklärt werden können, der auch die scheinbare Anomalie in den Flugbahnen der Raumschiffe Pioneer 10 und 11 und die Verlangsamung der Atomuhren erklärt. Das neue Modell sagt tatsächlich voraus, dass diese vermeintliche Anomalie keine Anomalie ist, sondern ein normales Verhalten aller kleinen Körper, die sich durch den Weltraum bewegen.

Es ist gut bekannt, dass sich die AR bei kurzen Gravitationsentfernungen, wie der Entfernung zwischen Merkur und der Sonne, als genauer erwiesen hat als die klassische Newtonsche Theorie.

Doch es wurde nachgewiesen, dass beide Theorien für alle Translationsbewegungen der gesamten "beobachtbaren Materie" in galaktischen und intergalaktischen Entfernungen, zu denen sich alle Planeten und Sternkörper verhalten, als wären sie punktförmig zueinander, für beide Methoden der Helligkeit und des Virialtheorems die gleichen Ergebnisse liefern.

(9- Über die beobachtbare Materie und die "dunkle Materie")

Eine Anmerkung von Interesse hier bezüglich der "beobachtbaren Materie" in galaktischen und intergalaktischen Entfernungen betrifft die sogenannte "dunkle Materie". Verstehen wir uns recht, dass "beobachtbare Materie" in diesen Entfernungen ausschließlich mit Materie in Verbindung gebracht wird, deren Helligkeit von diesen weit entfernten Galaxien aus nachweisbar ist.

1933 beobachtete der Astronom Fritz Zwicky, dass die aus der Helligkeit berechnete Masse eines fernen Galaxienhaufens im Vergleich zu der mit einer anderen Methode berechneten Masse desselben Haufens mit der letzteren Methode (dem Virialtheorem) eine viel größere Zahl ergab als die, die allein aus der Helligkeit geschätzt werden konnte. Diese Beobachtung führte zu der Theorie, dass es eine unsichtbare "dunkle" Materie geben muss, um diesen Unterschied zu erklären.

Von Anfang an ist leicht zu beobachten, dass der größte Teil der Materie im Sonnensystem, angefangen bei den Asteroiden, Planeten, interplanetaren Teilchen und Trümmern aller Art, die im Magnetfeld der Sonne gefangen sind, bis hin zur Oortschen Wolke und den Wolken aus interstellarem Staub und Trümmern aller Art, die sich seit Beginn des Universums angesammelt haben, kein Licht aussenden und nur einen Teil des von der Sonne kommenden Lichts reflektieren können. Die Masse all dieser nicht lichtemittierenden Materie würde auch aus der Helligkeit der Sonne als nicht berechenbar erscheinen, ganz zu schweigen von dem maskierenden Effekt, den sie durch Interferenz mit dem Sonnenlicht mit sich brächte, wenn das Sonnensystem aus interstellaren Entfernungen beobachtet würde.

Bedenkt man das Alter des Universums und den stetigen Ausstoß von Materie aus den Sternen und ihren Koronas seit ihrer Geburt, legt der gesunde Menschenverstand nicht zumindest nahe, dass der größte Teil, wenn nicht sogar die gesamte sogenannte fehlende Masse (berechnet aus der Leuchtkraft) einfach jene sehr normale Art von Materie sein könnte, die auf solche Entfernungen nicht nachweisbar ist, einfach weil sie nicht heiß genug ist, um Licht auszustrahlen?

Exotischere Theorien schienen jedoch von Anfang an für die Gemeinschaft als Ganzes viel attraktiver zu sein, so dass diese dazu neigte, die Vermutung der Existenz großer Mengen einer hypothetischen, unbekannten, nicht nachweisbaren und allgegenwärtigen zusätzlichen anomalen "dunklen Materie" zu bevorzugen und die Existenz einer ebenso hypothetischen, nicht nachweisbaren "seltsamen oder dunklen Energie" zu postulieren, um die Diskrepanz zu "erklären".

Die Tatsache, dass keines der exotischen Teilchen, die man sich theoretisch als Ersatz für normale Materie als Bestandteil dieser "dunklen Materie" vorgestellt hat, nirgendwo auf der Erde oder im Sonnensystem zu finden ist, sondern weit entfernt reichlich vorhanden wäre, wo man sie nicht nachweisen kann, sollte das nicht ein Hinweis darauf sein, dass sie vielleicht gar nicht existieren?

(10- Vorschlag einer einfacheren Lösung)

Ist es nicht an der Zeit, um sich auf einfache und logische Erklärungen zurückzubesinnen durch die Erforschung dieser Spuren, die viel vielversprechender für konkrete Ergebnisse sind? Mal sehen, wohin uns die Verfolgung der Spur führt, die von den kollisionsfähigen Teilchen geliefert wird, die hier auf der Erde tatsächlich existieren und nachweisbar sind.

Wir werden auch sehen, warum das Higgs-Boson, dessen Existenz postuliert wird, um die Existenz der Masse zu erklären, nicht einmal notwendig ist, und dass eine viel einfachere Erklärung, die sich direkt aus der einfachen Trägheit der Energie und des Elektromagnetismus ergibt, die Existenz der Masse vollständig rechtfertigt.

BIBLIOGRAPHIE

· [ 1] Louis de Broglie. LA PHYSIQUE NOUVELLE ET LES QUANTA,
France, Flammarion, France 1937, Second Édition 1993, avec nouvelle Préface de
1973 par L. de Broglie

· [ 6] Richard Feynman. Space-Time Approach to Quantum Electrodynamics,
Phys. Rev. 76, 769 (1949).

· [7] Anderson, Laing, Lau, Liu, Nieto and Turyshev. Indications from
Pioneer 10/11, Galileo, and Ulysses Data, of an Apparent Anomaleous, Weak,
< Long-Range Acceleration, grqc/ 9808081, v2, 1 Oct 1998.

Sommaire
et Table des
matières
Sommaire et Table des matières de l'article

Alle Artikel, die im Projekt "Elektromagnetische Mechanik der Elementarteilchen" veröffentlicht wurden, sind hier verfügbar:

INDEX - Elektromagnetische Mechanik der Elementarteilchen



Haut de la Page