Physik der Mikrowelt und Megawelt. Atomphysik

· Mikroskopiepfad 3

· Mikroskopiegrenze 5

· Unsichtbare Strahlungen 7

· Elektronen und Elektronenoptik 9

· Elektronen sind Wellen!? 12

· Elektronenmikroskopstruktur 13

· Elektronenmikroskopische Objekte 15

· Arten von Elektronenmikroskopen 17

· Merkmale der Arbeit mit einem Elektronenmikroskop 21

· Möglichkeiten zur Überwindung der Beugungsgrenze der Elektronenmikroskopie 23

· Referenzen 27

· Bilder 28


Anmerkungen:

1. Symbol bedeutet zur Macht erheben. Zum Beispiel 2 3 bedeutet „2 hoch 3“.

2. Symbol e bedeutet, eine Zahl in Exponentialform zu schreiben. Zum Beispiel 2 e3 bedeutet „2 mal 10 hoch 3“.

3. Alle Bilder befinden sich auf der letzten Seite.

4. Aufgrund der Verwendung nicht ganz „neuerer“ Literatur sind die Daten in dieser Zusammenfassung nicht besonders „frisch“.

Das Auge würde die Sonne nicht sehen,

wenn er nicht so wäre

Zur Sonne.

Goethe.

Der Weg der Mikroskopie.

Als um die Wende des 17. Jahrhunderts das erste Mikroskop erfunden wurde, konnte sich kaum jemand (und nicht einmal sein Erfinder) die zukünftigen Erfolge und vielfältigen Anwendungsmöglichkeiten der Mikroskopie vorstellen. Rückblickend sind wir davon überzeugt, dass diese Erfindung mehr bedeutete als die Schaffung eines neuen Geräts: Zum ersten Mal konnte ein Mensch das bisher Unsichtbare sehen.

Etwa zur gleichen Zeit geht ein weiteres Ereignis auf die Erfindung des Teleskops zurück, das es ermöglichte, das Unsichtbare in der Welt der Planeten und Sterne zu sehen. Die Erfindung des Mikroskops und des Teleskops stellte eine Revolution nicht nur in der Art und Weise dar, die Natur zu studieren, sondern auch in der Forschungsmethode selbst.

Tatsächlich beobachteten Naturphilosophen der Antike die Natur und lernten von ihr nur das, was das Auge sah, die Haut fühlte und das Ohr hörte. Man kann nur überrascht sein, wie viele korrekte Informationen über die Welt um sie herum sie mit „nackten“ Sinnen und ohne spezielle Experimente erhalten haben, wie sie es jetzt tun. Wie viele falsche „Beobachtungen“, Aussagen und Schlussfolgerungen haben uns Wissenschaftler der Antike und des Mittelalters neben genauen Fakten und brillanten Vermutungen hinterlassen!

Erst viel später wurde eine Methode zur Erforschung der Natur gefunden, die darin besteht, bewusst geplante Experimente durchzuführen, deren Zweck darin besteht, Annahmen und klar formulierte Hypothesen zu überprüfen. Francis Bacon, einer ihrer Schöpfer, drückte die Merkmale dieser Forschungsmethode mit den folgenden, heute berühmten Worten aus: „Ein Experiment durchzuführen bedeutet, die Natur zu befragen.“ Die allerersten Schritte der experimentellen Methode waren nach modernen Vorstellungen bescheiden, und in den meisten Fällen kamen die damaligen Experimentatoren ohne Geräte aus, die die Sinne „erweitern“. Die Erfindung des Mikroskops und des Teleskops bedeutete eine enorme Erweiterung der Beobachtungs- und Experimentiermöglichkeiten.

Bereits die ersten Beobachtungen, die mit der einfachsten und unvollkommensten Technologie nach modernen Vorstellungen durchgeführt wurden, entdeckten „eine ganze Welt in einem Wassertropfen“. Es stellte sich heraus, dass bekannte Objekte bei der Betrachtung durch das Mikroskop völlig anders aussehen: Oberflächen, die für das Auge und die Berührung glatt sind, erweisen sich tatsächlich als rau, und in „sauberem“ Wasser bewegen sich unzählige winzige Organismen. Ebenso ermöglichten die ersten astronomischen Beobachtungen mit Teleskopen den Menschen, die vertraute Welt der Planeten und Sterne auf eine neue Art und Weise zu sehen: So entpuppte sich beispielsweise die Oberfläche des Mondes, die von Dichtern aller Generationen besungen wurde Sie ist gebirgig und mit zahlreichen Kratern übersät, und es wurde festgestellt, dass die Venus, genau wie die Monde, einen Phasenwechsel aufweist.

Aus diesen einfachen Beobachtungen werden in Zukunft eigenständige Wissenschaftsbereiche entstehen: Mikroskopie und beobachtende Astronomie. Die Jahre werden vergehen, und jeder dieser Bereiche wird sich zu zahlreichen Auswirkungen entwickeln, die sich in einer Reihe sehr unterschiedlicher Anwendungen in der Biologie, Medizin, Technik, Chemie, Physik und Navigation äußern.

Moderne Mikroskope, die wir im Gegensatz zu elektronischen als optisch bezeichnen, sind perfekte Instrumente, die es ermöglichen, hohe Vergrößerungen mit hoher Auflösung zu erzielen. Die Auflösung wird durch die Entfernung bestimmt, in der zwei benachbarte Strukturelemente noch getrennt sichtbar sind. Allerdings hat die optische Mikroskopie, wie Untersuchungen gezeigt haben, aufgrund der Beugung und Interferenz ¾ der Phänomene, die durch die Wellennatur des Lichts verursacht werden, praktisch die grundlegende Grenze ihrer Möglichkeiten erreicht.

Der Grad der Monochromatizität und Kohärenz ist ein wichtiges Merkmal von Wellen jeglicher Art (elektromagnetisch, Schall usw.). Monochromatische Schwingungen ¾ sind Schwingungen, die aus Sinuswellen einer bestimmten Frequenz bestehen. Wenn wir uns Schwingungen in Form einer einfachen Sinuskurve bzw. mit konstanter Amplitude, Frequenz und Phase vorstellen, dann handelt es sich um eine gewisse Idealisierung, da es in der Natur streng genommen keine Schwingungen und Wellen gibt, die durch einen Sinus absolut genau beschrieben werden Welle. Wie Studien jedoch gezeigt haben, können sich reale Schwingungen und Wellen mit mehr oder weniger Genauigkeit einer idealen Sinuskurve annähern (mehr oder weniger monochromatisch sein). Schwingungen und Wellen komplexer Form können als eine Reihe sinusförmiger Schwingungen und Wellen dargestellt werden. Tatsächlich wird diese mathematische Operation von einem Prisma ausgeführt, das Sonnenlicht in ein Farbspektrum zerlegt.

Monochromatische Wellen, auch Lichtwellen, gleicher Frequenz können (unter bestimmten Voraussetzungen!) so miteinander interagieren, dass dadurch „Licht in Dunkelheit umschlägt“ oder, wie man sagt, die Wellen interferieren können. Bei der Interferenz kommt es zu einer lokalen „Verstärkung und Unterdrückung“ von Wellen untereinander. Damit das Welleninterferenzmuster im Laufe der Zeit unverändert bleibt (z. B. beim Betrachten mit dem Auge oder beim Fotografieren), ist es notwendig, dass die Wellen miteinander kohärent sind (zwei Wellen sind miteinander kohärent, wenn sie einen stabilen Zustand ergeben). Interferenzmuster, das der Gleichheit ihrer Frequenzen und der konstanten Phasenverschiebung entspricht).

Wenn Hindernisse im Weg der Wellenausbreitung platziert werden, beeinflussen sie die Ausbreitungsrichtung dieser Wellen erheblich. Solche Hindernisse können die Kanten von Löchern in Bildschirmen, undurchsichtige Objekte sowie alle anderen Arten von Inhomogenitäten im Weg der Wellenausbreitung sein. Insbesondere Objekte, die (für eine gegebene Strahlung) transparent sind, sich aber im Brechungsindex und damit in der Wellendurchgangsgeschwindigkeit in ihnen unterscheiden, können ebenfalls Inhomogenitäten sein. Das Phänomen der Änderung der Ausbreitungsrichtung von Wellen beim Passieren von Hindernissen wird als Beugung bezeichnet. Beugung geht meist mit Interferenzerscheinungen einher.

Die Grenze der Mikroskopie.

Das mit einem beliebigen optischen System erhaltene Bild ist das Ergebnis der Interferenz verschiedener Teile der Lichtwelle, die dieses System passiert. Insbesondere ist bekannt, dass die Einschränkung einer Lichtwelle durch die Eintrittspupille des Systems (die Ränder der Linsen, Spiegel und Blenden, aus denen das optische System besteht) und das damit verbundene Phänomen der Beugung dazu führt, dass das Licht Der Punkt wird in Form eines Beugungskreises dargestellt. Dieser Umstand schränkt die Fähigkeit ein, kleine Details des vom optischen System erzeugten Bildes zu unterscheiden. Das Bild beispielsweise einer unendlich weit entfernten Lichtquelle (Stern) durch Beugung an einer runden Pupille (Spektivrahmen) ist ein recht komplexes Bild (siehe Abb. 1). Auf diesem Bild sehen Sie eine Reihe konzentrischer heller und dunkler Ringe. Die Verteilung der Beleuchtung, die man festlegen kann, wenn man sich von der Bildmitte zu den Bildrändern bewegt, wird durch recht komplexe Formeln beschrieben, die in Optikkursen angegeben werden. Allerdings sehen die Muster, die der Position des ersten (von der Bildmitte aus gesehen) dunklen Rings innewohnen, einfach aus. Bezeichnen wir mit D den Durchmesser der Eintrittspupille des optischen Systems und mit l die Wellenlänge des Lichts, das von einer unendlich weit entfernten Quelle gesendet wird.

Reis. 1. Beugungsbild eines leuchtenden Punktes (der sogenannten Airy-Scheibe).

Wenn wir mit j den Winkel bezeichnen, unter dem der Radius des ersten dunklen Rings sichtbar ist, dann gilt, wie in der Optik bewiesen,

Sünde J » 1,22 * ( l /D) .

Durch die Beschränkung der Wellenfront auf die Ränder des optischen Systems (die Eintrittspupille) erhalten wir also einen Satz Beugungsringe, anstatt einen leuchtenden Punkt abzubilden, der einem Objekt im Unendlichen entspricht. Dieses Phänomen schränkt natürlich die Fähigkeit ein, zwischen zwei nahe beieinander liegenden Punktlichtquellen zu unterscheiden. Tatsächlich bilden sich im Falle zweier entfernter Quellen, beispielsweise zweier sehr nahe beieinander liegender Sterne im Himmelsgewölbe, in der Beobachtungsebene zwei Systeme konzentrischer Ringe. Unter bestimmten Umständen können sie sich überschneiden und eine Unterscheidung zwischen Quellen wird unmöglich. Es ist kein Zufall, dass sie, entsprechend der „Empfehlung“ der oben gegebenen Formel, den Bau astronomischer Teleskope mit großer Eintrittspupille anstreben. Die Auflösungsgrenze, bei der zwei nahe beieinander liegende Lichtquellen beobachtet werden können, wird wie folgt bestimmt: Zur Bestimmtheit wird als Auflösungsgrenze die Position der Beugungsbilder zweier Punktlichtquellen angenommen, an der der erste dunkle Ring von einer der beiden erzeugt wird Quelle fällt mit der Mitte des hellen Flecks zusammen, der von einer anderen Quelle erzeugt wurde.


Materie in der Mikrowelt

Nach modernen wissenschaftlichen Ansichten sind alle natürlichen Objekte geordnete, strukturierte, hierarchisch organisierte Systeme. Mithilfe eines Systemansatzes identifiziert die Naturwissenschaft nicht einfach nur Arten materieller Systeme, sondern legt deren Zusammenhänge und Beziehungen offen. Es gibt drei Ebenen der Struktur der Materie.

Makrowelt- die Welt der Makroobjekte, deren Dimension mit Maßstäben korreliert menschliche Erfahrung; Räumliche Größen werden in Millimetern, Zentimetern und Kilometern und Zeit in Sekunden, Minuten, Stunden und Jahren ausgedrückt.

Mikrowelt- die Welt des Kleinsten, nicht direkt beobachtbar Mikroobjekte, deren räumliche Dimension zwischen 10 -8 und 10 -16 cm und deren Lebensdauer zwischen unendlich und 10 -24 Sekunden liegt.

Megawelt- Die Welt ist riesig kosmische Skala und Geschwindigkeiten, die Entfernung wird in Lichtjahren gemessen und die Lebensdauer von Weltraumobjekten wird in Millionen und Abermilliarden Jahren gemessen.

Und obwohl diese Ebenen ihre eigenen spezifischen Gesetze haben, sind die Mikro-, Makro- und Megawelten eng miteinander verbunden.

Mikrowelt: Konzepte der modernen Physik

Quantenmechanisches Konzept zur Beschreibung der Mikrowelt. Bei der Untersuchung von Mikropartikeln standen Wissenschaftler aus Sicht der klassischen Wissenschaft vor einer paradoxen Situation: Dieselben Objekte zeigten sowohl Wellen- als auch Korpuskulareigenschaften. Den ersten Schritt in diese Richtung machte der deutsche Physiker M. Planck (1858-1947).

Bei der Untersuchung der Wärmestrahlung eines „absolut schwarzen“ Körpers kam M. Planck zu der verblüffenden Schlussfolgerung, dass bei Strahlungsprozessen Energie nicht kontinuierlich und nicht in beliebigen Mengen, sondern nur in bestimmten unteilbaren Anteilen abgegeben oder absorbiert werden kann – Quanten. Die Größe dieser kleinsten Energieanteile wird durch die Anzahl der Schwingungen der entsprechenden Strahlungsart und die universelle Naturkonstante bestimmt, die M. Planck unter dem Symbol in die Wissenschaft eingeführt hat h: E = hy , wer später berühmt wurde (wo hm – Energiequantum, bei – Frequenz).

Planck stellte die resultierende Formel am 19. Dezember 1900 auf einer Tagung der Berliner Physikalischen Gesellschaft vor. In der Geschichte der Physik gilt dieser Tag als Geburtstag der Quantentheorie und der gesamten Atomphysik; dieser Tag markiert den Beginn einer neuen Ära der Naturwissenschaften.

Der große deutsche theoretische Physiker A. Einstein (1879-1955) übertrug 1905 die Idee der Quantisierung von Energie bei Wärmestrahlung auf Strahlung im Allgemeinen und begründete damit die neue Lichtlehre. Die Idee, dass Licht ein Regen aus sich schnell bewegenden Quanten sei, war eine äußerst kühne Vorstellung, die zunächst nur wenige für richtig hielten. M. Planck selbst war mit der Erweiterung der Quantenhypothese auf die Quantentheorie des Lichts nicht einverstanden, der seine Quantenformel zuschrieb nur zu den von ihm betrachteten Gesetzen der Wärmestrahlung eines schwarzen Körpers.

A. Einstein schlug vor, dass es sich um ein natürliches Muster handelte Universal- Charakter und kam zu dem Schluss, dass die korpuskuläre Struktur des Lichts erkannt werden sollte. Quantentheorie des Lichts A. Einstein argumentierte, dass Licht ein Wellenphänomen ist, das sich ständig im Raum ausbreitet. Und gleichzeitig hat Lichtenergie eine diskontinuierliche Struktur. Licht kann als Strom von Lichtquanten oder Photonen betrachtet werden. Ihre Energie wird durch das Elementarquantum der Planck-Wirkung und die entsprechende Anzahl an Schwingungen bestimmt. Licht verschiedene Farben besteht aus Lichtquanten unterschiedlicher Energie.

Es ist möglich geworden, das Phänomen des photoelektrischen Effekts zu visualisieren, dessen Kern darin besteht, Elektronen aus einer Substanz unter dem Einfluss elektromagnetischer Wellen herauszuschlagen. Das Phänomen des photoelektrischen Effekts wurde in der zweiten Hälfte des 19. Jahrhunderts entdeckt und in den Jahren 1888-1890 vom russischen Physiker Alexander Grigorjewitsch Stoletow systematisch untersucht. Äußerlich zeigte sich der Effekt darin, dass, wenn ein Lichtstrom auf eine negativ geladene Metallplatte fällt, ein mit der Platte verbundenes Elektroskop das Vorhandensein eines augenblicklichen elektrischen Stroms anzeigt. Der Strom fließt jedoch nur durch einen geschlossenen Stromkreis, und der Stromkreis „Metallplatte – Elektroskop“ ist nicht geschlossen. A. Einstein zeigte, dass ein solcher Stromkreisschluss durch einen Elektronenfluss erfolgt, der durch Photonen aus der Plattenoberfläche herausgeschlagen wird.

Experimente haben gezeigt, dass das Vorhandensein oder Fehlen des photoelektrischen Effekts durch die Frequenz der einfallenden Welle bestimmt wird. Geht man davon aus, dass jedes Elektron von einem Photon ausgestoßen wird, dann wird deutlich: Der Effekt tritt nur dann ein, wenn die Energie des Photons und damit seine Frequenz hoch genug ist, um die Bindungskräfte zwischen Elektron und Materie zu überwinden.

Reis. Diagramm des photoelektrischen Effekts

Für diese Arbeit erhielt Einstein 1922 den Nobelpreis für Physik. Seine Theorie wurde in den Experimenten eines amerikanischen Physikers bestätigt R. E. Millikan(1868-1953). 1923 von einem amerikanischen Physiker entdeckt A. H. Compton(1892–1962) bestätigte das Phänomen (Compton-Effekt), das beobachtet wird, wenn Atome mit freien Elektronen sehr harter Röntgenstrahlung ausgesetzt werden, erneut und bestätigte endgültig die Quantentheorie des Lichts.

Es entstand eine paradoxe Situation: Man entdeckte, dass sich Licht nicht nur wie eine Welle, sondern auch wie ein Fluss von Teilchen verhält. In Experimenten zu Beugung Und Interferenz sein Welle Eigenschaften und wann photoelektrischer Effekt - korpuskulär. Das Hauptmerkmal seiner Diskretion (sein inhärenter Energieanteil) wurde durch eine reine Welleneigenschaft berechnet – die Frequenz y (E = hy). So wurde entdeckt, dass es sich um eine Beschreibung handelt Felder notwendig nicht nur kontinuierlich, sondern auch korpuskulär ein Ansatz.

Die Idee der Ansätze zur Erforschung der Materie blieb nicht unverändert: 1924 der französische Physiker Louis de Broglie(1892-1987) vertraten die Idee der Welleneigenschaften der Materie, die Notwendigkeit, Wellen- und Korpuskularkonzepte nicht nur in der Lichttheorie, sondern auch in zu verwenden Theorie der Materie. Das hat er behauptet Welleneigenschaften, zusammen mit korpuskular, gelten für alle Arten von Materie: Elektronen, Protonen, Atome, Moleküle und sogar makroskopische Körper. Laut de Broglie jeder Körper mit Masse T , sich mit Geschwindigkeit bewegen v , entspricht der Welle

Tatsächlich war eine ähnliche Formel früher bekannt, aber nur in Bezug auf Lichtquanten - Photonen.

Im Jahr 1926 wurde der österreichische Physiker E. Schrödinger(1887-1961) fand eine mathematische Gleichung, die das Verhalten von Materiewellen, den sogenannten, bestimmt Schrödinger-Gleichung. Englischer Physiker P. Dirac(1902-1984) fasste es zusammen. Der kühne Gedanke von L. de Broglie über den universellen „Dualismus“ von Teilchen und Wellen ermöglichte die Konstruktion einer Theorie, mit deren Hilfe eine Abdeckung möglich war Eigenschaften von Materie und Licht in ihrer Einheit.

Der überzeugendste Beweis dafür, dass De Broglie Recht hatte, war die Entdeckung der Elektronenbeugung durch amerikanische Physiker im Jahr 1927 K. Davisson und L. Germer. Anschließend wurden Experimente durchgeführt, um die Beugung von Neutronen, Atomen und sogar Molekülen nachzuweisen. Noch wichtiger war die Entdeckung neuer Elementarteilchen, die auf der Grundlage eines Formelsystems der entwickelten Wellenmechanik vorhergesagt wurde.

Also ersetzen zwei verschiedene Ansätze zur Untersuchung von zwei verschiedenen Formen der Materie: Korpuskular und Welle - kamen einzel Ansatz – Welle-Teilchen-Dualismus. Geständnis Welle-Teilchen-Dualität ist in der modernen Physik universell geworden: Jedes materielle Objekt zeichnet sich durch das Vorhandensein sowohl von Korpuskular- als auch von Welleneigenschaften aus.

Die quantenmechanische Beschreibung der Mikrowelt basiert auf Unsicherheitsbeziehung, aufgestellt von einem deutschen Physiker W. Heisenberg(1901-76) und Prinzip der Komplementarität Dänischer Physiker N. Bora(1885-1962),.

Die Essenz Unsicherheitsrelationen V. Heisenberg ist das Es ist unmöglich, die komplementären Eigenschaften eines Mikropartikels gleichermaßen genau zu bestimmen, zum Beispiel die Koordinaten des Teilchens und seines Impulses (Impuls). Führt man ein Experiment durch, das genau zeigt, wo sich das Teilchen zu einem bestimmten Zeitpunkt befindet, wird die Bewegung so stark gestört, dass das Teilchen danach nicht mehr gefunden werden kann. Und umgekehrt ist es mit einer genauen Geschwindigkeitsmessung unmöglich, den Ort des Teilchens zu bestimmen.

Aus Sicht der klassischen Mechanik erscheint die Unschärferelation absurd. Allerdings leben wir Menschen in einem Makrokosmos und im Prinzip Wir können kein visuelles Modell erstellen, das der Mikrowelt angemessen wäre. Die Unsicherheitsrelation ist ein Ausdruck der Unmöglichkeit, die Mikrowelt zu beobachten, ohne sie zu stören. Bei korpuskuläre Beschreibung Um einen genauen Wert zu erhalten, wird eine Messung durchgeführt Energie und Ausmaß der Mikropartikelbewegung, zum Beispiel bei der Elektronenstreuung. In Experimenten, die darauf abzielen genaue Standortbestimmung, im Gegenteil, wird verwendet Wellenerklärung, insbesondere beim Durchgang von Elektronen durch dünne Platten oder bei der Beobachtung der Ablenkung von Strahlen.

Ein Grundprinzip der Quantenmechanik ist auch Prinzip der Komplementarität, an wen N. Bor formulierte es so: „Die Begriffe Teilchen und Wellen ergänzen einander und widersprechen sich zugleich, sie sind komplementäre Bilder des Geschehens.“

Auf diese Weise, Korpuskular- und Wellenmuster müssen sich ergänzen, d.h. komplementär sein. Nur durch die Berücksichtigung beider Aspekte erhält man ein Gesamtbild der Mikrowelt. Es gibt zwei Klassen von Geräten: In einigen verhalten sich Quantenobjekte wie Wellen, in anderen wie Teilchen. M. Geboren(1882-1970) stellte fest, dass Wellen und Teilchen „Projektionen“ der physikalischen Realität auf die experimentelle Situation sind.

Atomistisches Konzept der Struktur der Materie. In der Antike aufgestellte atomistische Hypothese über die Struktur der Materie Demokrit, wurde im 18. Jahrhundert wiederbelebt. Chemiker J. Dalton. In der Physik stammt die Vorstellung von Atomen als den letzten unteilbaren Strukturelementen der Materie aus der Chemie.

Eigentlich physikalische Forschung Atome beginnen Ende des 19. Jahrhunderts, als der französische Physiker A. A. Becquerel(1852 – 1908) wurde das Phänomen der Radioaktivität entdeckt. Die Erforschung der Radioaktivität wurde von französischen Physikern und ihren Ehepartnern fortgesetzt P. Curie(1859-1906) und M. Sklodowska-Curie(1867-1934), der die neuen radioaktiven Elemente Polonium und Radium entdeckte.

Geschichte der Studie atomare Struktur begann 1895 dank der Entdeckung eines englischen Physikers J. J. Thomson(1856 – 1940)Elektron. Da Elektronen negativ geladen sind und das Atom insgesamt elektrisch neutral ist, wurde von der Anwesenheit eines positiv geladenen Teilchens ausgegangen. Die Masse des Elektrons wurde mit 1/1836 der Masse eines positiv geladenen Teilchens berechnet.

Basierend auf einer solchen Masse eines positiv geladenen Teilchens, dem englischen Physiker W. Thomson(1824 – 1907, ab 1892 Lord Kelvin), schlug 1902 das erste Modell des Atoms vor: Eine positive Ladung ist über eine ziemlich große Fläche verteilt und mit Elektronen durchsetzt, wie „Rosinen im Pudding“. Dieses Modell konnte jedoch experimentellen Tests nicht standhalten.

Im Jahr 1908 E. Marsden Und X. Geig Er, Mitarbeiter des englischen Physikers E. Rutherford, führten Experimente zum Durchgang von Alphateilchen durch dünne Metallplatten durch und stellten fest, dass fast alle Teilchen die Platte passieren, als ob es kein Hindernis gäbe, und nur 1/10.000 von ihnen eine starke Ablenkung erfahren . E. Rutherford(1871-1937) kamen zu dem Schluss, dass sie auf ein Hindernis stießen. Dabei handelt es sich um einen positiv geladenen Atomkern, dessen Größe (10 -12 cm) im Vergleich zur Größe eines Atoms (10 -8 cm) sehr klein ist, in dem sich die Masse des Atoms jedoch fast vollständig konzentriert.

Das von E. Rutherford vorgeschlagene Atommodell 1911ähnelte dem Sonnensystem: Im Zentrum befindet sich ein Atomkern, und um ihn herum bewegen sich Elektronen auf ihren Bahnen. Ein unauflöslicher Widerspruch Dieses Modell besagte, dass Elektronen, um ihre Stabilität nicht zu verlieren, dies tun müssen bewegen um den Kern herum. Gleichzeitig müssen sich Elektronen nach den Gesetzen der Elektrodynamik bewegen strahlen elektromagnetische Energie. Aber in diesem Fall verloren die Elektronen sehr schnell ihre gesamte Energie und würde auf den Kern fallen.

Der nächste Widerspruch hängt mit der Tatsache zusammen, dass das Emissionsspektrum eines Elektrons kontinuierlich sein muss, da das Elektron bei Annäherung an den Kern seine Frequenz ändern würde. Allerdings emittieren Atome Licht nur bei bestimmten Frequenzen. Rutherfords Planetenmodell des Atoms erwies sich als unvereinbar mit der Elektrodynamik von J. C. Maxwell.

1913 der große dänische Physiker N. Bor Stellen Sie eine Hypothese über die Struktur des Atoms auf, die auf zwei Postulaten basiert, die mit der klassischen Physik völlig unvereinbar sind und auf dem Prinzip der Quantisierung basieren:

1) In jedem Atom gibt es mehrere stationäre Umlaufbahnen Elektronen, entlang derer ein Elektron existieren kann, nicht strahlend;

2) wann Übergang Elektron von einer stationären Umlaufbahn zu einem anderen Atom gibt einen Teil der Energie ab oder absorbiert ihn.

Bohrs Postulate erklären Stabilität der Atome: Elektronen in stationären Zuständen geben ohne äußeren Grund keine elektromagnetische Energie ab. Erklärt und Linienspektren von Atomen: Jede Linie des Spektrums entspricht dem Übergang eines Elektrons von einem Zustand in einen anderen.

Die Atomtheorie von N. Bohr ermöglichte eine genaue Beschreibung des Wasserstoffatoms, bestehend aus einem Proton und einem Elektron, die recht gut mit experimentellen Daten übereinstimmte. Eine weitere Ausweitung der Theorie auf Mehrelektronenatome stieß auf unüberwindbare Schwierigkeiten. Die Wellenlänge eines bewegten Elektrons beträgt etwa 10 -8 cm, d.h. sie liegt in der gleichen Größenordnung wie die Größe eines Atoms. Aber die Bewegung eines Teilchens, das zu einem beliebigen System gehört, kann nur dann mit hinreichender Genauigkeit als mechanische Bewegung eines materiellen Punktes entlang einer bestimmten Umlaufbahn beschrieben werden, wenn die Wellenlänge des Teilchens unerheblich im Vergleich zur Größe des Systems.

Folglich ist es grundsätzlich unmöglich, die Struktur eines Atoms anhand der Vorstellung der Bahnen von Punktelektronen genau zu beschreiben, da solche Bahnen tatsächlich nicht existieren. Aufgrund ihrer Wellennatur sind Elektronen und ihre Ladungen sozusagen im gesamten Atom verschmiert, jedoch nicht gleichmäßig, sondern so, dass an manchen Stellen die zeitlich gemittelte Ladungsdichte der Elektronen größer und an anderen geringer ist .

Die Theorie von N. Bohr stellt sozusagen die Grenze der ersten Stufe in der Entwicklung der modernen Physik dar. Dies ist der jüngste Versuch, die Struktur des Atoms auf der Grundlage der klassischen Physik zu beschreiben, ergänzt durch nur wenige neue Annahmen. Prozesse im Atom können grundsätzlich nicht in Form mechanischer Modelle in Analogie zu Ereignissen im Makrokosmos visuell dargestellt werden. Selbst die Konzepte von Raum und Zeit in der Form, wie sie in der Makrowelt existieren, erwiesen sich als ungeeignet, um mikrophysikalische Phänomene zu beschreiben.

Elementarteilchen und das Quarkmodell des Atoms. Die Weiterentwicklung der Ideen des Atomismus war mit der Untersuchung von Elementarteilchen verbunden. Begriff "Elementarteilchen" Ursprünglich waren damit die einfachsten, weiter unzersetzbaren Teilchen gemeint, die allen materiellen Bildungen zugrunde liegen. Mittlerweile wurde festgestellt, dass Partikel die eine oder andere Struktur haben, der historisch etablierte Name existiert jedoch weiterhin. Derzeit wurden mehr als 350 Mikropartikel entdeckt.

Hauptmerkmale Elementarteilchen sind Masse, Ladung, mittlere Lebensdauer, Spin und Quantenzahlen.

Ruhemasse der Elementarteilchen im Verhältnis zur Ruhemasse des Elektrons bestimmt. Es gibt Elementarteilchen, die keine Ruhemasse haben – Photonen. Die verbleibenden Partikel nach diesem Kriterium werden unterteilt in Leptonen- leichte Teilchen (Elektron und Neutrino); Mesonen- mittlere Teilchen mit einer Masse von einer bis tausend Elektronenmassen; Baryonen- schwere Teilchen, deren Masse tausend Elektronenmassen übersteigt und zu denen Protonen, Neutronen, Hyperonen und viele Resonanzen gehören.

Elektrische Ladung. Alle bekannten Teilchen haben eine positive, negative oder keine Ladung. Jedes Teilchen, mit Ausnahme des Photons und zweier Mesonen, entspricht Antiteilchen mit entgegengesetzter Ladung. Es wird angenommen, dass Quarks Teilchen mit sind gebrochen elektrische Ladung.

Auf Lebenszeit Partikel werden unterteilt in stabil(Photon, zwei Arten von Neutrinos, Elektron und Proton) und instabil. Bei der Struktur von Makrokörpern spielen stabile Partikel die wichtigste Rolle. Alle anderen Teilchen sind instabil, sie existieren etwa 10 -10 - 10 -24 s und zerfallen dann. Elementarteilchen mit einer durchschnittlichen Lebensdauer von 10 -23 - 10 -22 Sekunden. angerufen Resonanzen, die zerfallen, bevor sie das Atom oder den Atomkern überhaupt verlassen. Daher ist es nicht möglich, sie in realen Experimenten nachzuweisen.

Konzept "zurück", der in der klassischen Physik keine Entsprechungen hat, bezeichnen den Eigendrehimpuls eines Mikroteilchens.

"Quantenzahlen" drücken diskrete Zustände von Elementarteilchen aus, zum Beispiel die Position eines Elektrons in einer bestimmten Elektronenbahn, magnetisches Moment usw.

Alle Elementarteilchen werden in zwei Klassen eingeteilt - Fermionen(benannt nach E. Fermi) Und Bosonen(benannt nach S. Bose). Fermionen bilden Substanz, Bosonen tragen Interaktion, diese. sind Feldquanten. Zu den Fermionen zählen insbesondere Quarks und Leptonen, zu den Bosonen Feldquanten (Photonen, Vektorbosonen, Gluonen, Gravitinos und Gravitonen). Diese Partikel werden berücksichtigt wirklich elementar diese. weiter unzerlegbar. Die restlichen Partikel werden klassifiziert als bedingt elementar, diese. Verbundteilchen aus Quarks und entsprechenden Feldquanten.

Elementarteilchen nehmen an allen bekannten Wechselwirkungen teil. Es gibt vier Arten grundlegende Wechselwirkungen in der Natur.

Starke Interaktion findet auf der Ebene von Atomkernen statt und stellt die gegenseitige Anziehung und Abstoßung ihrer Bestandteile dar. Es wirkt in einer Entfernung von etwa 10 -13 cm. Unter bestimmten Bedingungen bindet eine starke Wechselwirkung die Teilchen sehr fest, was zur Bildung von Materialsystemen mit hoher Bindungsenergie – Atomkernen – führt. Aus diesem Grund sind die Atomkerne sehr stabil und schwer zu zerstören.

Elektromagnetische Wechselwirkung etwa tausendmal schwächer als ein starker, aber mit viel größerer Reichweite. Diese Art der Wechselwirkung ist charakteristisch für elektrisch geladene Teilchen. Der Träger der elektromagnetischen Wechselwirkung ist ein Photon ohne Ladung – ein Quantum des elektromagnetischen Feldes. Bei der elektromagnetischen Wechselwirkung verbinden sich Elektronen und Atomkerne zu Atomen und Atome zu Molekülen. In gewissem Sinne ist diese Interaktion Hauptfach Chemie und Biologie.

Schwache Interaktion möglicherweise zwischen verschiedenen Teilchen. Es erstreckt sich über eine Distanz in der Größenordnung von 10 -13 - 10 -22 cm und ist hauptsächlich mit dem Zerfall von Teilchen verbunden, beispielsweise mit der im Atomkern stattfindenden Umwandlung eines Neutrons in ein Proton, ein Elektron und ein Antineutrino. Nach heutigem Wissensstand sind die meisten Teilchen gerade aufgrund der schwachen Wechselwirkung instabil.

Gravitationswechselwirkung- der schwächste, der in der Theorie der Elementarteilchen nicht berücksichtigt wird, da er bei charakteristischen Abständen in der Größenordnung von 10 -13 cm äußerst geringe Effekte hervorruft. Allerdings weiter ultraklein Entfernungen (ca. 10 -33 cm) und bei ultragroß Energien kommt der Schwerkraft wieder eine bedeutende Bedeutung zu. Hier beginnen sich die ungewöhnlichen Eigenschaften des physikalischen Vakuums zu zeigen. Superschwere virtuelle Teilchen erzeugen um sich herum ein spürbares Gravitationsfeld, das die Geometrie des Raums zu verzerren beginnt. Auf kosmischer Ebene ist die Gravitationswechselwirkung von entscheidender Bedeutung. Sein Wirkungsbereich ist nicht begrenzt.

Tisch Grundlegende Wechselwirkungen

Alle vier Interaktionen notwendig und ausreichend eine vielfältige Welt aufzubauen. Ohne starke Wechselwirkungen Atomkerne würden nicht existieren und Sterne und die Sonne wären nicht in der Lage, mit Echsenenergie Wärme und Licht zu erzeugen. Ohne elektromagnetische Wechselwirkungen Es gäbe keine Atome, keine Moleküle, keine makroskopischen Objekte und keine Wärme oder Licht. Ohne schwache Wechselwirkungen Kernreaktionen wären in den Tiefen der Sonne und der Sterne nicht möglich, es gäbe keine Supernova-Explosionen und die für das Leben notwendigen schweren Elemente könnten sich nicht im gesamten Universum ausbreiten. Ohne Gravitationswechselwirkung Das Universum konnte sich nicht weiterentwickeln, da die Schwerkraft ein verbindender Faktor ist, der die Einheit des Universums als Ganzes und seine Entwicklung gewährleistet.

Die moderne Physik ist zu dem Schluss gekommen, dass alle vier Grundwechselwirkungen aus einer Grundwechselwirkung abgeleitet werden können – Supermächte. Die bemerkenswerteste Errungenschaft war der Nachweis, dass sich bei sehr hohen Temperaturen (oder Energien) alle vier Kräfte vereinen, um sich zu bilden eins.

Bei einer Energie von 100 GeV (100 Milliarden Elektronenvolt) kommen elektromagnetische und schwache Wechselwirkungen zusammen. Diese Temperatur entspricht der Temperatur des Universums 10 -10 s nach dem Urknall. Bei einer Energie von 10 15 GeV verbindet sie eine starke Wechselwirkung und bei einer Energie von 10 19 GeV verbinden sich alle vier Wechselwirkungen.

Fortschritte in der Teilchenforschung haben weiter dazu beigetragen Entwicklung des Konzepts des Atomismus. Derzeit geht man davon aus, dass unter den vielen Elementarteilchen 12 Elementarteilchen und ebenso viele Antiteilchen unterschieden werden können. Sechs Teilchen sind Quarks mit exotischen Namen „upper“, „lower“, „enchanted“, „strange“, „true“, „charming“. Die restlichen sechs sind Leptonen: Elektron, Myon, Tau-Teilchen und ihre entsprechenden Neutrinos (Elektron, Myon, Tau-Neutrino).

Diese 12 Partikel werden gruppiert drei Generationen, die jeweils aus vier Mitgliedern bestehen.

Das erste enthält „Upper“- und „Downward“-Quarks, ein Elektron und ein Elektron-Neutrino.

Das zweite enthält „charmante“ und „seltsame“ Quarks, ein Myon und ein Myon-Neutrino.

Im dritten - „wahre“ und „schöne“ Quarks und Tau-Teilchen mit ihren Neutrinos.

Alle gewöhnliche Materie besteht aus Teilchen der ersten Generation. Es wird angenommen, dass die verbleibenden Generationen künstlich an Beschleunigern geladener Teilchen erzeugt werden können.

Basierend auf dem Quark-Modell haben Physiker eine moderne Lösung des Problems entwickelt Struktur der Atome.

Jedes Atom besteht aus schwerer Kern(stark gebunden durch die Gluonenfelder von Protonen und Neutronen) und Elektronenhülle. Ein Proton hat eine positive elektrische Ladung, ein Neutron hat eine Nullladung. Ein Proton besteht aus zwei „Up“-Quarks und einem „Down“-Quark, und ein Neutron besteht aus einem „Up“- und zwei „Down“-Quarks. Sie ähneln einer Wolke mit verschwommenen Grenzen, bestehend aus virtuellen Partikeln, die erscheinen und verschwinden.

Es gibt immer noch Fragen zum Ursprung von Quarks und Leptonen, ob sie die grundlegenden „Bausteine“ der Natur sind und wie grundlegend sie sind? Antworten auf diese Fragen werden in der modernen Kosmologie gesucht. Von großer Bedeutung ist die Untersuchung der Entstehung von Elementarteilchen aus dem Vakuum, die Konstruktion von Modellen der primären Kernfusion, die zum Zeitpunkt der Geburt des Universums bestimmte Teilchen entstehen ließen.

Fragen zur Selbstkontrolle

1. Was ist das Wesentliche einer systematischen Herangehensweise an die Struktur der Materie?

2. Enthüllen Sie die Beziehung zwischen der Mikro-, Makro- und Megawelt.

3. Welche Vorstellungen über Materie und Feld als Materietypen wurden im Rahmen der klassischen Physik entwickelt?

4. Was bedeutet der Begriff „Quantum“? Erzählen Sie uns von den wichtigsten Phasen bei der Entwicklung von Ideen über Quanten.

5. Was bedeutet das Konzept der „Welle-Teilchen-Dualität“? Welche Bedeutung hat N. Bohrs Komplementaritätsprinzip für die Beschreibung der physikalischen Realität der Mikrowelt?

6. Wie ist die Struktur des Atoms aus Sicht der modernen Physik?

8. Charakterisieren Sie die Eigenschaften von Elementarteilchen.

9. Heben Sie die wichtigsten Strukturebenen der Organisation der Materie im Mikrokosmos hervor und offenbaren Sie ihre Beziehung.

10. Welche Vorstellungen über Raum und Zeit gab es in der Zeit vor Newton?

11. Wie haben sich die Vorstellungen über Raum und Zeit durch die Entstehung eines heliozentrischen Weltbildes verändert?

12. Wie interpretierte I. Newton Zeit und Raum?

13. Welche Vorstellungen über Raum und Zeit wurden in A. Einsteins Relativitätstheorie entscheidend?

14. Was ist das Raum-Zeit-Kontinuum?

15. Erweitern Sie moderne metrische und topologische Eigenschaften von Raum und Zeit.

Obligatorisch:

4.2.1. Quantenmechanisches Konzept zur Beschreibung der Mikrowelt

Als man sich der Erforschung der Mikrowelt zuwandte, stellte man fest, dass die physische Realität einheitlich ist und es keine Lücke zwischen Materie und Feld gibt.

Bei der Untersuchung von Mikropartikeln standen Wissenschaftler aus Sicht der klassischen Wissenschaft vor einer paradoxen Situation: Dieselben Objekte zeigten sowohl Wellen- als auch Korpuskulareigenschaften.

Den ersten Schritt in diese Richtung machte der deutsche Physiker M. Planck. Bekanntlich Ende des 19. Jahrhunderts. In der Physik trat eine Schwierigkeit auf, die als „Ultraviolettkatastrophe“ bezeichnet wurde. Nach Berechnungen nach der Formel der klassischen Elektrodynamik hätte die Intensität der Wärmestrahlung eines vollständig schwarzen Körpers unbegrenzt zunehmen müssen, was eindeutig der Erfahrung widersprach. Bei der Erforschung der Wärmestrahlung, die M. Planck als die schwierigste seines Lebens bezeichnete, kam er zu der verblüffenden Schlussfolgerung, dass bei Strahlungsprozessen Energie nicht kontinuierlich und nicht in beliebigen Mengen, sondern nur in bekannten unteilbaren Anteilen abgegeben oder absorbiert werden kann - Quanten. Die Energie von Quanten wird durch die Anzahl der Schwingungen der entsprechenden Strahlungsart und die universelle Naturkonstante bestimmt, die M. Planck unter dem Symbol in die Wissenschaft eingeführt hat H : E= H u.

War mit der Einführung des Quantums noch keine wirkliche Quantentheorie entstanden, wie M. Planck immer wieder betonte, so wurde am 14. Dezember 1900, dem Tag der Veröffentlichung der Formel, ihr Grundstein gelegt. Daher gilt dieser Tag in der Geschichte der Physik als Geburtstag der Quantenphysik. Und da das Konzept eines elementaren Wirkungsquantums später als Grundlage für das Verständnis aller Eigenschaften der Atomhülle und des Atomkerns diente, sollte der 14. Dezember 1900 sowohl als Geburtstag der gesamten Atomphysik als auch als Beginn einer neuen Ära gelten der Naturwissenschaft.

Der erste Physiker, der die Entdeckung des elementaren Wirkungsquantums mit Begeisterung aufnahm und schöpferisch entwickelte, war A. Einstein. 1905 übertrug er die geniale Idee der quantisierten Absorption und Abgabe von Energie bei der Wärmestrahlung auf die Strahlung im Allgemeinen und begründete damit die neue Lichtlehre.

Die Vorstellung von Licht als einem Strom sich schnell bewegender Quanten war äußerst kühn, fast gewagt, und nur wenige glaubten zunächst an ihre Richtigkeit. Erstens war M. Planck selbst mit der Erweiterung der Quantenhypothese auf die Quantentheorie des Lichts nicht einverstanden und bezog sich in seiner Quantenformel nur auf die von ihm betrachteten Gesetze der Wärmestrahlung eines schwarzen Körpers.

A. Einstein schlug vor, dass es sich um ein Naturgesetz universeller Natur handelt. Ohne auf die vorherrschenden Ansichten in der Optik zurückzublicken, wandte er Plancks Hypothese auf das Licht an und kam zu dem Schluss, dass sie anerkannt werden sollte korpuskulär Struktur des Lichts.

Die Quantentheorie des Lichts oder Einsteins Photonentheorie A argumentierte, dass Licht ein Wellenphänomen ist, das sich ständig im Raum ausbreitet. Gleichzeitig ist die Lichtenergie, um physikalisch wirksam zu sein, nur an bestimmten Stellen konzentriert, sodass das Licht eine diskontinuierliche Struktur aufweist. Licht kann als Strom unteilbarer Energiekörner, Lichtquanten oder Photonen betrachtet werden. Ihre Energie wird durch das Elementarquantum der Planck-Wirkung und die entsprechende Anzahl an Schwingungen bestimmt. Licht unterschiedlicher Farbe besteht aus Lichtquanten unterschiedlicher Energie.

Einsteins Idee der Lichtquanten half, das Phänomen des photoelektrischen Effekts zu verstehen und zu visualisieren, dessen Kern darin besteht, Elektronen aus einer Substanz unter dem Einfluss elektromagnetischer Wellen herauszuschlagen. Experimente haben gezeigt, dass das Vorhandensein oder Fehlen eines photoelektrischen Effekts nicht von der Intensität der einfallenden Welle, sondern von ihrer Frequenz abhängt. Geht man davon aus, dass jedes Elektron von einem Photon ausgestoßen wird, dann wird deutlich: Der Effekt tritt nur dann ein, wenn die Energie des Photons und damit seine Frequenz hoch genug ist, um die Bindungskräfte zwischen Elektron und Materie zu überwinden.

Die Richtigkeit dieser Interpretation des photoelektrischen Effekts (für diese Arbeit erhielt Einstein 1922 den Nobelpreis für Physik) wurde 10 Jahre später in den Experimenten eines amerikanischen Physikers bestätigt RE. Milliken. 1923 von einem amerikanischen Physiker entdeckt OH. Compton Das Phänomen (Compton-Effekt), das beobachtet wird, wenn Atome mit freien Elektronen sehr harter Röntgenstrahlung ausgesetzt werden, bestätigte erneut und endgültig die Quantentheorie des Lichts. Diese Theorie ist eine der experimentellsten bestätigten physikalischen Theorien. Die Wellennatur des Lichts war jedoch bereits durch Experimente zur Interferenz und Beugung eindeutig nachgewiesen.

Es entstand eine paradoxe Situation: Man entdeckte, dass sich Licht nicht nur wie eine Welle, sondern auch wie ein Fluss von Teilchen verhält. In Experimenten zur Beugung und Interferenz werden seine Welleneigenschaften und im photoelektrischen Effekt seine korpuskulären Eigenschaften offenbart. In diesem Fall stellte sich heraus, dass es sich bei dem Photon um ein ganz besonderes Korpuskel handelte. Das Hauptmerkmal seiner Diskretion – sein inhärenter Energieanteil – wurde durch eine reine Welleneigenschaft – die Frequenz – berechnet y (E= Nun).

Wie alle großen naturwissenschaftlichen Entdeckungen hatte die neue Lichtlehre grundlegende theoretische und erkenntnistheoretische Bedeutung. Die alte Position über die Kontinuität natürlicher Prozesse, die von M. Planck gründlich erschüttert wurde, wurde von Einstein aus dem viel größeren Bereich der physikalischen Phänomene ausgeschlossen.

Weiterentwicklung der Ideen von M. Planck und A. Einstein, dem französischen Physiker Louis de Broche 1924 stellte er die Idee der Welleneigenschaften der Materie vor. In seinem Werk „Licht und Materie“ schrieb er über die Notwendigkeit, Wellen- und Korpuskularkonzepte nicht nur in Übereinstimmung mit den Lehren von A. Einstein in der Lichttheorie, sondern auch in der Materietheorie zu verwenden.

L. de Broglie argumentierte, dass Welleneigenschaften neben korpuskulären Eigenschaften allen Arten von Materie innewohnen: Elektronen, Protonen, Atomen, Molekülen und sogar makroskopischen Körpern.

Laut de Broglie jeder Körper mit Masse T, sich mit Geschwindigkeit bewegen V, Welle entspricht:

Tatsächlich war eine ähnliche Formel früher bekannt, jedoch nur in Bezug auf Lichtquanten – Photonen.

Im Jahr 1926 wurde der österreichische Physiker E. Schrödinger fanden eine mathematische Gleichung, die das Verhalten von Materiewellen bestimmt, die sogenannte Schrödinger-Gleichung. Englischer Physiker P. Dirac fasste es zusammen.

Der kühne Gedanke von L. de Broglie über den universellen „Dualismus“ von Teilchen und Wellen ermöglichte die Konstruktion einer Theorie, mit deren Hilfe es möglich war, die Eigenschaften von Materie und Licht in ihrer Einheit zu erfassen. In diesem Fall wurden Lichtquanten zu einem besonderen Moment der Gesamtstruktur der Mikrowelt.

Wellen der Materie, die zunächst als visuell reale Wellenprozesse ähnlich akustischen Wellen dargestellt wurden, erhielten eine abstrakte mathematische Form und erhielten sie dank des deutschen Physikers M. Bornu symbolische Bedeutung als „Wahrscheinlichkeitswellen“.

Allerdings bedurfte die Hypothese von de Broglie einer experimentellen Bestätigung. Der überzeugendste Beweis für die Existenz von Welleneigenschaften der Materie war die Entdeckung der Elektronenbeugung durch amerikanische Physiker im Jahr 1927 K. Davisson Und L. Ger- messen. Anschließend wurden Experimente durchgeführt, um die Beugung von Neutronen, Atomen und sogar Molekülen nachzuweisen. In allen Fällen bestätigten die Ergebnisse die Hypothese von de Broglie vollständig. Noch wichtiger war die Entdeckung neuer Elementarteilchen, die auf der Grundlage eines Formelsystems der entwickelten Wellenmechanik vorhergesagt wurde.

Die Anerkennung des Welle-Teilchen-Dualismus in der modernen Physik ist allgemein geworden. Jedes materielle Objekt zeichnet sich durch das Vorhandensein sowohl von Korpuskular- als auch von Welleneigenschaften aus.

Die Tatsache, dass dasselbe Objekt sowohl als Teilchen als auch als Welle erscheint, zerstörte traditionelle Vorstellungen.

Die Form eines Teilchens impliziert eine Entität, die in einem kleinen Volumen oder einem endlichen Raumbereich enthalten ist, während sich eine Welle über weite Raumbereiche ausbreitet. In der Quantenphysik schließen sich diese beiden Realitätsbeschreibungen gegenseitig aus, sind aber gleichermaßen notwendig, um die betreffenden Phänomene vollständig zu beschreiben.

Die endgültige Bildung der Quantenmechanik als konsistente Theorie erfolgte dank der Arbeit des deutschen Physikers V. Heisenberg, Wer hat das Unschärfeprinzip aufgestellt? und dänischer Physiker N. Bora, der das Komplementaritätsprinzip formulierte, auf dessen Grundlage das Verhalten von Mikroobjekten beschrieben wird.

Die Essenz Unsicherheitsrelationen V. Heisenberg ist wie folgt. Nehmen wir an, die Aufgabe besteht darin, den Zustand eines sich bewegenden Teilchens zu bestimmen. Wenn es möglich wäre, die Gesetze der klassischen Mechanik anzuwenden, wäre die Situation einfach: Man müsste nur die Koordinaten des Teilchens und seinen Impuls (Bewegungsgröße) bestimmen. Die Gesetze der klassischen Mechanik lassen sich jedoch nicht auf Mikropartikel anwenden: Es ist nicht nur praktisch, sondern auch allgemein unmöglich, Ort und Größe der Bewegung eines Mikropartikels mit gleicher Genauigkeit zu bestimmen. Nur eine dieser beiden Eigenschaften kann genau bestimmt werden. In seinem Buch „Physik des Atomkerns“ enthüllt W. Heisenberg den Inhalt der Unschärferelation. Das schreibt er Man kann nie beide Paare gleichzeitig genau kennen Meter - Koordinaten und Geschwindigkeit. Man kann nie gleichzeitig wissen, wo sich ein Teilchen befindet und wie schnell und in welche Richtung es sich bewegt. Führt man ein Experiment durch, das genau zeigt, wo sich das Teilchen zu einem bestimmten Zeitpunkt befindet, wird die Bewegung so stark gestört, dass das Teilchen danach nicht mehr gefunden werden kann. Umgekehrt ist es mit einer genauen Geschwindigkeitsmessung unmöglich, den Ort des Teilchens zu bestimmen.

Aus Sicht der klassischen Mechanik erscheint die Unschärferelation absurd. Um die aktuelle Situation besser einschätzen zu können, müssen wir uns vor Augen halten, dass wir Menschen in einem Makrokosmos leben und grundsätzlich Wir können kein visuelles Modell erstellen, das der Mikrowelt angemessen wäre. Die Unsicherheitsbeziehung ist Ausdruck der Unmöglichkeit, die Mikrowelt zu beobachten, ohne sie zu stören. Jeder Versuch, ein klares Bild mikrophysikalischer Prozesse zu liefern, muss sich entweder auf eine Korpuskular- oder Welleninterpretation stützen. Bei der Korpuskularbeschreibung wird eine Messung durchgeführt, um einen genauen Wert der Energie und Größe der Bewegung eines Mikropartikels beispielsweise bei der Elektronenstreuung zu erhalten. Bei Experimenten zur genauen Ortsbestimmung hingegen kommt die Wellenerklärung zum Einsatz, insbesondere beim Durchgang von Elektronen durch dünne Platten oder bei der Beobachtung der Ablenkung von Strahlen.

Die Existenz eines elementaren Wirkungsquantums stellt ein Hindernis dar, gleichzeitig und mit gleicher Genauigkeit Größen zu ermitteln, die „kanonisch zusammenhängen“, d. h. Position und Größe der Teilchenbewegung.

Das Grundprinzip der Quantenmechanik ist zusammen mit der Unschärferelation das Prinzip zusätzlich ness, N. Bohr formulierte dazu Folgendes: „Die Konzepte von Teilchen und Wellen ergänzen sich und widersprechen sich gleichzeitig, sie sind komplementäre Bilder des Geschehens“1.

Die Widersprüche in den Teilchenwelleneigenschaften von Mikroobjekten sind das Ergebnis der unkontrollierten Wechselwirkung von Mikroobjekten und Makrogeräten. Es gibt zwei Klassen von Geräten: In einigen verhalten sich Quantenobjekte wie Wellen, in anderen wie Teilchen. In Experimenten beobachten wir nicht die Realität als solche, sondern nur ein Quantenphänomen, einschließlich des Ergebnisses der Interaktion eines Geräts mit einem Mikroobjekt. M. Born bemerkte im übertragenen Sinne, dass Wellen und Teilchen „Projektionen“ der physikalischen Realität auf eine experimentelle Situation seien.

Ein Wissenschaftler, der die Mikrowelt untersucht, wird somit vom Beobachter zum Akteur, da die physische Realität vom Gerät abhängt, d. h. letztlich aus der Willkür des Betrachters. Daher glaubte N. Bohr, dass ein Physiker die Realität selbst nicht kennt, sondern nur seinen eigenen Kontakt mit ihr.

Ein wesentliches Merkmal der Quantenmechanik ist der probabilistische Charakter von Vorhersagen über das Verhalten von Mikroobjekten, der mithilfe der E. Schrödinger-Wellenfunktion beschrieben wird. Die Wellenfunktion bestimmt mit unterschiedlicher Wahrscheinlichkeit die Parameter des zukünftigen Zustands eines Mikroobjekts. Dies bedeutet, dass bei der Durchführung derselben Experimente mit denselben Objekten jedes Mal unterschiedliche Ergebnisse erzielt werden. Einige Werte werden jedoch wahrscheinlicher sein als andere, z. B. wird nur bekannt sein Wahrscheinlichkeitsverteilung von Werten.

Unter Berücksichtigung der Faktoren Unsicherheit, Komplementarität und Wahrscheinlichkeit gab N. Bohr die sogenannte „Kopenhagener“ Interpretation des Wesens der Quantentheorie: „Früher war es allgemein anerkannt, dass die Physik das Universum beschreibt.“ Wir wissen jetzt, dass die Physik nur das beschreibt, was wir über das Universum sagen können.“1

Die Position von N. Bohr wurde von W. Heisenberg, M. Born, W. Pauli und einer Reihe anderer weniger bekannter Physiker geteilt. Befürworter der Kopenhagener Interpretation der Quantenmechanik erkannten weder Kausalität noch Determinismus in der Mikrowelt an und glaubten, dass die Grundlage der physikalischen Realität eine grundlegende Unsicherheit sei – der Indeterminismus.

Vertreter der Kopenhagener Schule lehnten G.A. scharf ab. Lorentz, M. Planck, M. Laue, A. Einstein, P. Langevin und andere. A. Einstein schrieb darüber an M. Born: „In unseren wissenschaftlichen Ansichten haben wir uns zu Antipoden entwickelt. Sie glauben an einen Gott, der würfelt, und ich glaube an die völlige Gesetzmäßigkeit der objektiven Existenz ... Wovon ich fest überzeugt bin, ist, dass sie sich am Ende auf eine Theorie einigen werden, in der nicht Wahrscheinlichkeiten, sondern Fakten selbstverständlich sind verbunden „2. Er wandte sich gegen das Prinzip der Unsicherheit, für den Determinismus und gegen die Rolle, die dem Akt der Beobachtung in der Quantenmechanik zugeschrieben wird. Die weitere Entwicklung der Physik zeigte, dass Einstein Recht hatte, der glaubte, dass die Quantentheorie in ihrer bestehenden Form einfach unvollständig sei: Die Tatsache, dass Physiker die Unsicherheit noch nicht loswerden können, weist nicht auf die Grenzen der wissenschaftlichen Methode hin, wie N. Bohr argumentierte. aber nur Unvollständigkeit der Quantenmechanik. Einstein lieferte immer neue Argumente, um seinen Standpunkt zu stützen.

Am bekanntesten ist das sogenannte Einstein-Podolsky-Rosen-Paradoxon oder EPR-Paradoxon, mit dessen Hilfe man die Unvollständigkeit der Quantenmechanik beweisen wollte. Das Paradoxon ist ein Gedankenexperiment: Was würde passieren, wenn ein Teilchen, das aus zwei Protonen besteht, so zerfällt, dass die Protonen in entgegengesetzte Richtungen auseinanderfliegen? Aufgrund ihres gemeinsamen Ursprungs sind ihre Eigenschaften verwandt oder korrelieren, wie Physiker sagen, miteinander. Nach dem Impulserhaltungssatz gilt: Wenn ein Proton nach oben fliegt, muss das zweite nach unten fliegen. Nachdem wir den Impuls eines Protons gemessen haben, wissen wir mit Sicherheit den Impuls des anderen Protons, selbst wenn es ans andere Ende des Universums geflogen ist. Es gibt eine nichtlokale Verbindung zwischen Teilchen, die Einstein „die Wirkung von Geistern aus der Ferne“ nannte, bei der jedes Teilchen zu jedem Zeitpunkt weiß, wo sich das andere befindet und was mit ihm geschieht.

Das EPR-Paradoxon ist mit der in der Quantenmechanik postulierten Unsicherheit nicht vereinbar. Einstein glaubte, dass es einige versteckte Parameter gab, die nicht berücksichtigt wurden. Fragen: Existieren Determinismus und Kausalität in der Mikrowelt? Ist die Quantenmechanik vollständig? Ob es versteckte Parameter gibt, die nicht berücksichtigt werden, ist seit mehr als einem halben Jahrhundert Gegenstand der Debatte unter Physikern und fand erst Ende des 20. Jahrhunderts eine Lösung auf theoretischer Ebene.

Im Jahr 1964 J. S. Bela begründete die Position, dass die Quantenmechanik eine stärkere Korrelation zwischen miteinander verbundenen Teilchen vorhersagt als das, worüber Einstein sprach.

Bells Theorem besagt, dass, wenn ein objektives Universum existiert und die Gleichungen der Quantenmechanik diesem Universum strukturell ähnlich sind, eine Art nichtlokale Verbindung zwischen zwei Teilchen besteht, die jemals in Kontakt kommen. Der Kern des Bell-Theorems besteht darin, dass es keine isolierten Systeme gibt: Jedes Teilchen des Universums steht in „augenblicklicher“ Kommunikation mit allen anderen Teilchen. Das gesamte System funktioniert wie ein einziges System, auch wenn seine Teile durch große Entfernungen voneinander getrennt sind und zwischen ihnen keine Signale, Felder, mechanischen Kräfte, Energie usw. vorhanden sind.

Mitte der 80er Jahre A. Aspekt(Universität Paris) testete diesen Zusammenhang experimentell, indem sie die Polarisation von Photonenpaaren untersuchte, die von einer einzelnen Quelle in Richtung isolierter Detektoren emittiert wurden. Beim Vergleich der Ergebnisse zweier Messreihen wurde eine Konsistenz zwischen diesen festgestellt. Aus der Sicht eines berühmten Physikers D. Boma, Die Experimente von A. Aspect bestätigten den Satz von Bell und stützten die Positionen nichtlokaler versteckter Variablen, deren Existenz A. Einstein annahm. In D. Bohms Interpretation der Quantenmechanik gibt es keine Unsicherheit in den Koordinaten des Teilchens und seinem Impuls.

Wissenschaftler haben vorgeschlagen, dass Kommunikation durch die Übertragung von Informationen erfolgt, deren Träger Spezialgebiete sind.

4.2.2. Wellengenetik

Die in der Quantenmechanik gemachten Entdeckungen hatten fruchtbare Auswirkungen nicht nur auf die Entwicklung der Physik, sondern auch auf andere Bereiche der Naturwissenschaften, vor allem auf die Biologie, in der das Konzept der Wellen- oder Quantengenetik entwickelt wurde.

Als J. Watson, A. Wilson und F. Crick 1962 den Nobelpreis für die Entdeckung der Doppelhelix der DNA, die Erbinformationen trägt, erhielten, schien es den Genetikern, dass die Hauptprobleme der Übertragung genetischer Informationen kurz vor der Lösung standen . Alle Informationen werden in Genen gespeichert, deren Kombination in Zellchromosomen das Entwicklungsprogramm des Organismus bestimmt. Die Aufgabe bestand darin, den genetischen Code, also die gesamte Nukleotidsequenz der DNA, zu entschlüsseln.

Die Realität entsprach jedoch nicht den Erwartungen der Wissenschaftler. Nach der Entdeckung der Struktur der DNA und einer detaillierten Betrachtung der Beteiligung dieses Moleküls an genetischen Prozessen blieb das Hauptproblem des Phänomens Leben – die Mechanismen seiner Reproduktion – im Wesentlichen ungelöst. Durch die Entschlüsselung des genetischen Codes konnte die Synthese von Proteinen erklärt werden. Die klassischen Genetiker gingen davon aus, dass genetische Moleküle, die DNA, materieller Natur sind und wie eine Substanz funktionieren, die eine materielle Matrix darstellt, auf der ein materieller genetischer Code geschrieben ist. Dementsprechend entwickelt sich ein fleischlicher, materieller und materieller Organismus. Doch die Frage, wie die raumzeitliche Struktur eines Organismus in Chromosomen kodiert ist, lässt sich nicht auf der Grundlage der Kenntnis der Nukleotidsequenz klären. Sowjetische Wissenschaftler A.A. Liu Bischtschewym Und A.G. Gurvich Bereits in den 20er und 30er Jahren wurde die Auffassung geäußert, dass die Betrachtung von Genen als rein materielle Strukturen für eine theoretische Beschreibung des Phänomens Leben eindeutig unzureichend sei.

A.A. Lyubishchev schrieb in seinem 1925 veröffentlichten Werk „On the Nature of Hereditary Factors“, dass Gene weder Teile eines Chromosoms noch Moleküle autokatalytischer Enzyme, noch Radikale oder eine physikalische Struktur seien. Er glaubte, dass das Gen als potenzielle Substanz erkannt werden sollte. Ein besseres Verständnis der Ideen von A.A. Lyubishchev wird durch die Analogie eines genetischen Moleküls mit der Notenschrift ermutigt. Die Musiknotation selbst ist materiell und stellt Symbole auf Papier dar, aber diese Symbole werden nicht in materieller Form realisiert, sondern in Klängen, die akustische Wellen sind.

Bei der Entwicklung dieser Ideen hat A.G. Gurvich argumentierte, dass es in der Genetik „notwendig ist, das Konzept eines biologischen Feldes einzuführen, dessen Eigenschaften formal physikalischen Konzepten entlehnt sind“1. Die Grundidee von A.G. Gurvich vertrat die Auffassung, dass die Entwicklung des Embryos nach einem vorgegebenen Programm erfolgt und die Formen annimmt, die in seinem Bereich bereits vorhanden sind. Er war der erste, der das Verhalten der Bestandteile eines sich entwickelnden Organismus als Ganzes auf der Grundlage von Feldkonzepten erklärte. In diesem Feld sind die Formen enthalten, die der Embryo während seiner Entwicklung annimmt. Gurvich nannte die virtuelle Form, die zu jedem Zeitpunkt das Ergebnis des Entwicklungsprozesses bestimmt, eine dynamisch präformierte Form und führte damit ein Element der Teleologie in die ursprüngliche Formulierung des Fachgebiets ein. Nachdem er die Theorie des Zellfeldes entwickelt hatte, erweiterte er die Idee des Feldes als ein Prinzip, das den embryonalen Prozess reguliert und koordiniert, auch auf die Funktionsweise von Organismen. Nachdem Gurvich die allgemeine Idee des Fachgebiets begründet hatte, formulierte er sie als universelles Prinzip der Biologie. Er entdeckte die Biophotonenstrahlung von Zellen.

Ideen der russischen Biologen A.A. Lyubishchev und A.G. Gurvich sind eine gigantische intellektuelle Leistung, die ihrer Zeit voraus ist. Die Essenz ihrer Gedanken ist in der Triade enthalten:

    Gene sind dualistisch – sie sind Substanz und Feld zugleich.

    Die Feldelemente der Chromosomen markieren den Raum – die Zeit des Organismus – und steuern dadurch die Entwicklung von Biosystemen.

    Gene haben ästhetisch-phantasievolle und sprachregulierende Funktionen.

Diese Ideen blieben bis zum Erscheinen von Werken unterschätzt V.P. Kaznacheeva in den 60er Jahren des 20. Jahrhunderts, als die Vorhersagen von Wissenschaftlern über das Vorhandensein linker Formen der Informationsübertragung in lebenden Organismen experimentell bestätigt wurden. Die wissenschaftliche Richtung in der Biologie, vertreten durch die Schule von V.P. Treasurer entstand als Ergebnis zahlreicher grundlegender Studien zum sogenannten spiegelzytopathischen Effekt, der darin zum Ausdruck kommt, dass lebende Zellen, die durch Quarzglas getrennt sind, das kein einziges Substanzmolekül durchlässt, dennoch Informationen austauschen. Nach Kaznacheevs Arbeit bestand kein Zweifel mehr an der Existenz eines Zeichenwellenkanals zwischen den Zellen von Biosystemen.

Gleichzeitig mit den Experimenten von V.P. Kaznacheeva chinesischer Forscher Jiang Kanzhen führte eine Reihe supergenetischer Experimente durch, die die Präkognition widerspiegelten A.L. Lyubishchev und A.G. Gurvich. Der Unterschied zwischen Jiang Kanzhens Arbeit besteht darin, dass er Experimente nicht auf zellulärer Ebene, sondern auf der Ebene des Organismus durchführte. Er ging davon aus, dass DNA – genetisches Material – in zwei Formen existiert: passiv (in Form von DNA) und aktiv (in Form eines elektromagnetischen Feldes). Die erste Form bewahrt den genetischen Code und sorgt für die Stabilität des Körpers, während die zweite Form ihn durch Beeinflussung mit bioelektrischen Signalen verändern kann. Ein chinesischer Wissenschaftler entwarf Geräte, die in der Lage waren, supergenetische Wellensignale von einem Spenderbiosystem zu lesen, über eine Distanz zu übertragen und in einen Akzeptororganismus einzuleiten. Infolgedessen entwickelte er unvorstellbare Hybriden, die von der offiziellen Genetik „verboten“ wurden und nur auf echten Genen basieren. So entstanden tierische und pflanzliche Chimären: Hühner-Enten; Mais, aus dessen Kolben Weizenähren wuchsen usw.

Der herausragende Experimentator Jiang Kanzhen verstand intuitiv einige Aspekte der von ihm tatsächlich geschaffenen experimentellen Wellengenetik und glaubte, dass die Träger der feldgenetischen Informationen die in seiner Ausrüstung verwendete ultrahochfrequente elektromagnetische Strahlung seien, konnte jedoch keine theoretische Begründung liefern.

Nach der experimentellen Arbeit von V.P. Kaznacheev und Jiang Kanzheng, die nicht mit der traditionellen Genetik erklärt werden konnten, bestand ein dringender Bedarf an der theoretischen Entwicklung des Wellengenommodells, im physikalischen, mathematischen und theoretischen biologischen Verständnis der Arbeit des DNA-Chromosoms auf diesem Gebiet und Materialabmessungen.

Die ersten Versuche, dieses Problem zu lösen, wurden von russischen Wissenschaftlern unternommen P.P. Garyaev, A.A. Beresin Und A.A. Wassiljew, die folgende Aufgaben stellen:

    die Möglichkeit einer dualistischen Interpretation der Arbeit des Zellgenoms auf den Ebenen Materie und Feld im Rahmen physikalischer und mathematischer Modelle aufzeigen;

    Zeigen Sie die Möglichkeit normaler und „anomaler“ Funktionsweisen des Zellgenoms mithilfe von Phantomwellen-Bildzeichenmatrizen auf;

Finden Sie experimentelle Beweise für die Richtigkeit der vorgeschlagenen Theorie.

Im Rahmen der von ihnen entwickelten Theorie, der sogenannten Wellengenetik, wurden mehrere Grundprinzipien aufgestellt, begründet und experimentell bestätigt, die das Verständnis des Phänomens Leben und der in lebender Materie ablaufenden Prozesse erheblich erweiterten.

Gene sind nicht nur materielle Strukturen, sondern auch Wellenmatrizen, nach denen der Organismus wie nach Schablonen aufgebaut ist.

Die gegenseitige Informationsübertragung zwischen Zellen, die dazu beiträgt, den Körper als ganzheitliches System zu formen und das koordinierte Funktionieren aller Körpersysteme zu korrigieren, erfolgt nicht nur chemisch – durch die Synthese verschiedener Enzyme und anderer „Signal“-Substanzen. P.P. Garyaev schlug vor und bewies dann experimentell, dass Zellen, ihre Chromosomen, DNA und Proteine ​​​​Informationen mithilfe physikalischer Felder übertragen – elektromagnetische und akustische Wellen sowie dreidimensionale Hologramme, die mit einem Laser chromosomales Licht lesen und dieses Licht aussenden, das in Radiowellen umgewandelt und erblich übertragen wird neue Informationen im Raum des Körpers. Das Genom höherer Organismen wird als bioholographischer Computer betrachtet, der die raumzeitliche Struktur von Biosystemen bildet. Die Träger der Feldmatrizen, auf denen der Organismus aufgebaut ist, sind Wellenfronten, die durch Genogologramme und die sogenannten Solitonen auf der DNA gesetzt werden – eine besondere Art von akustischen und elektromagnetischen Feldern, die vom genetischen Apparat des Organismus selbst erzeugt werden und in der Lage sind, Funktionen zu vermitteln der Austausch strategischer regulatorischer Informationen zwischen Zellen, Geweben und Organen des Biosystems.

In der Wellengenetik wurden die Vorstellungen von Gurvich – Lyubishchev – Kaznacheev – Jiang Kanzhen über die Feldebene der Geninformation bestätigt. Mit anderen Worten, der in der Quantenelektrodynamik akzeptierte Dualismus der verbindenden Einheit „Welle – Teilchen“ oder „Materie – Feld“ erwies sich in der Biologie als anwendbar, was einst von AG vorhergesagt wurde. Gurvich und AA. Ljubischtschow. Gensubstanz und Genfeld schließen sich nicht aus, sondern ergänzen sich.

Lebende Materie besteht aus nicht lebenden Atomen und Elementarteilchen, die die grundlegenden Eigenschaften von Wellen und Teilchen vereinen, aber dieselben Eigenschaften werden von Biosystemen als Grundlage für den Austausch von Wellenenergie und Informationen genutzt. Mit anderen Worten: Genetische Moleküle strahlen ein Informations-Energiefeld aus, in dem der gesamte Organismus, sein physischer Körper und seine Seele kodiert sind.

Gene sind nicht nur das, was die sogenannte Genetik ausmacht ischer Code, aber auch alles andere, der größte Teil der DNA, die es einmal gab galt als bedeutungslos.

Doch genau dieser große Teil der Chromosomen wird im Rahmen der Wellengenetik als die wichtigste „intelligente“ Struktur aller Zellen des Körpers analysiert: „Nicht-kodierende Bereiche der DNA sind nicht nur Müll, sondern für einige bestimmte Strukturen.“ Zweck mit unklarem Zweck ... nichtkodierende DNA-Sequenzen (die 95-99 % des Genoms ausmachen) sind der strategische Informationsgehalt der Chromosomen ... Die Evolution von Biosystemen hat genetische Texte und das Genom geschaffen - Biocomputer - Biocomputer als ein quasi-intelligentes „Subjekt“, das auf seiner eigenen Ebene diese „Texte“ „liest und versteht“1. Dieser Bestandteil des Genoms, der als Supergenkontinuum bezeichnet wird, d. h. Supergen sichert die Entwicklung und das Leben von Menschen, Tieren und Pflanzen und programmiert auch das natürliche Sterben. Es gibt keine scharfe und unüberwindbare Grenze zwischen Genen und Supergenen; sie wirken als ein einziges Ganzes. Gene liefern materielle „Repliken“ in Form von RNA und Proteinen, und Supergene transformieren interne und externe Felder und bilden daraus Wellenstrukturen, in denen Informationen kodiert sind. Die genetische Gemeinsamkeit von Menschen, Tieren, Pflanzen und Protozoen besteht darin, dass diese Varianten auf Proteinebene in allen Organismen praktisch gleich oder leicht unterschiedlich sind und von Genen kodiert werden, die nur wenige Prozent der Gesamtlänge des Chromosoms ausmachen. Sie unterscheiden sich jedoch auf der Ebene des „Junk-Teils“ der Chromosomen, der fast ihre gesamte Länge ausmacht.

Die eigenen Informationen der Chromosomen reichen für die Entwicklung nicht aus Körper. Chromosomen sind entlang einer bestimmten Dimension physikalisch umgekehrt Chinesisches Vakuum, das den Großteil der Informationen für die Entwicklung des Embryos liefert. Der genetische Apparat ist aus sich selbst und mit Hilfe von Vakuum fähig Befehlswellenstrukturen wie Hologramme erzeugen und bereitstellen die Entwicklung des Organismus beeinflussen.

Bedeutsam für ein tieferes Verständnis des Lebens als kosmoplanetarisches Phänomen waren die experimentellen Daten von P.P. Garyaev, der die Unzulänglichkeit des Zellgenoms bewies, das Entwicklungsprogramm des Organismus unter Bedingungen der Informationsisolierung im Biofeld vollständig zu reproduzieren. Das Experiment bestand aus dem Bau von zwei Kammern, in denen jeweils alle natürlichen Bedingungen für die Entwicklung von Kaulquappen aus Froscheiern geschaffen wurden – die notwendige Zusammensetzung von Luft und Wasser, Temperatur, Lichtverhältnisse, Teichschlamm usw. Die einzigen Unterschiede bestanden darin, dass eine Kammer aus Permalloy bestand, einem Material, das keine elektromagnetischen Wellen durchlässt, und die zweite aus gewöhnlichem Metall, das Wellen nicht stört. In jede Kammer wurde eine gleiche Menge befruchteter Froscheier gelegt. Als Ergebnis des Experiments erschienen in der ersten Kammer alle Freaks, die nach einigen Tagen starben; in der zweiten Kammer schlüpften rechtzeitig Kaulquappen und entwickelten sich normal, die sich später in Frösche verwandelten.

Es ist klar, dass den Kaulquappen in der ersten Kammer für die normale Entwicklung ein Faktor fehlte, der den fehlenden Teil der Erbinformationen trug, ohne den der Organismus nicht in seiner Gesamtheit „zusammengebaut“ werden könnte. Und da die Wände der ersten Kammer die Kaulquappen nur von der Strahlung abschneiden, die ungehindert in die zweite Kammer eindringt, liegt die Annahme nahe, dass die Filterung oder Verzerrung des natürlichen Informationshintergrunds zu Deformationen und zum Tod der Embryonen führt. Das bedeutet, dass die Kommunikation genetischer Strukturen mit dem äußeren Informationsfeld für die harmonische Entwicklung des Organismus unbedingt notwendig ist. Externe (exobiologische) Feldsignale transportieren zusätzliche und möglicherweise wichtigste Informationen in das Genkontinuum der Erde.

DNA-Texte und chromosomale Kontinuumshologramme können in mehrdimensionaler Raumzeit und Semantik gelesen werden Optionen. Es gibt Wellensprachen des Zellgenoms, ähnlich wie menschlich.

In der Wellengenetik verdient die Begründung der Einheit der fraktalen (sich auf verschiedenen Skalen wiederholenden) Struktur von DNA-Sequenzen und menschlicher Sprache besondere Aufmerksamkeit. Dass die vier Buchstaben des genetischen Alphabets (Adenin, Guanin, Cytosin, Thymin) in DNA-Texten fraktale Strukturen bilden, wurde bereits 1990 entdeckt und löste keine besondere Reaktion aus. Die Entdeckung genähnlicher fraktaler Strukturen in der menschlichen Sprache kam jedoch sowohl für Genetiker als auch für Linguisten überraschend. Es zeigte sich, dass der akzeptierte und bereits bekannte Vergleich von DNA mit Texten, der nach der Entdeckung der Einheit der fraktalen Struktur und der menschlichen Sprache metaphorischer Natur war, völlig berechtigt ist.

Zusammen mit den Mitarbeitern des Mathematischen Instituts der Russischen Akademie der Wissenschaften hat die Gruppe von P.P. Garyaeva entwickelte die Theorie der fraktalen Darstellung natürlicher (menschlicher) und genetischer Sprachen. Die praktische Erprobung dieser Theorie im Bereich der „Sprach“-Merkmale der DNA zeigte die strategisch richtige Ausrichtung der Forschung.

Genau wie in den Experimenten von Jiang Kanzhen hat die Gruppe von P.P. Garyaev wurde der Effekt der Übersetzung und Einführung wellensupergenetischer Informationen vom Donor zum Akzeptor ermittelt. Es wurden Geräte geschaffen – Generatoren von Solitonenfeldern, in die Sprachalgorithmen beispielsweise in Russisch oder Englisch eingegeben werden konnten. Solche Sprachstrukturen verwandelten sich in solitonenmodulierte Felder – Analoga derjenigen, die Zellen im Prozess der Wellenkommunikation betreiben. Der Körper und sein genetischer Apparat „erkennen“ solche „Wellenphrasen“ als ihre eigenen und handeln entsprechend den von der Person von außen eingeführten Sprachempfehlungen. Durch die Entwicklung bestimmter Sprach- und Sprachalgorithmen war es beispielsweise möglich, strahlengeschädigte Weizen- und Gerstensamen wiederherzustellen. Darüber hinaus „verstanden“ Pflanzensamen diese Rede, unabhängig davon, in welcher Sprache sie gesprochen wurde – Russisch, Deutsch oder Englisch. Experimente wurden an Zehntausenden Zellen durchgeführt.

Um die Wirksamkeit wachstumsstimulierender Wellenprogramme in Kontrollexperimenten zu testen, wurden bedeutungslose Sprachpseudocodes durch Generatoren in das Pflanzengenom eingeführt, die keinen Einfluss auf den Pflanzenstoffwechsel hatten, während der semantische Eintritt in die semantischen Biofeldschichten des Pflanzengenoms einen dramatischen Effekt hatte kurzfristige Wirkung. Deutliche Wachstumsbeschleunigung.

Die Erkennung menschlicher Sprache durch Pflanzengenome (unabhängig von der Sprache) steht voll und ganz im Einklang mit der Position der Sprachgenetik über die Existenz einer Protosprache im Genom von Biosystemen in den frühen Stadien ihrer Evolution, die allen Organismen gemeinsam ist und in der allgemeinen Struktur erhalten bleibt des Genpools der Erde. Hier kann man die Übereinstimmung mit den Ideen des Klassikers der Strukturlinguistik N. Chomsky sehen, der glaubte, dass alle natürlichen Sprachen eine tiefe angeborene universelle Grammatik haben, die für alle Menschen und wahrscheinlich für ihre eigenen supergenetischen Strukturen unveränderlich ist.

4.2.3. Atomistisches Konzept der Struktur der Materie

In der Antike aufgestellte atomistische Hypothese über die Struktur der Materie Demokrit, wurde im 18. Jahrhundert wiederbelebt. Chemiker J. Dalton, der das Atomgewicht von Wasserstoff als eins nahm und die Atomgewichte anderer Gase damit verglich. Dank der Arbeiten von J. Dalton begann man, die physikalischen und chemischen Eigenschaften des Atoms zu untersuchen. Im 19. Jahrhundert DI. Mendelejew konstruierte ein System chemischer Elemente basierend auf ihrem Atomgewicht.

In der Physik stammt die Vorstellung von Atomen als den letzten veränderlichen Strukturelementen der Materie aus der Chemie. Die eigentliche physikalische Erforschung des Atoms begann Ende des 19. Jahrhunderts, als der französische Physiker A.A. Becquerel Es wurde das Phänomen der Radioaktivität entdeckt, das in der spontanen Umwandlung von Atomen einiger Elemente in Atome anderer Elemente bestand. Die Erforschung der Radioaktivität wurde von den französischen Physikern und ihren Ehepartnern fortgeführt Pierre Und Marie Curie, der die neuen radioaktiven Elemente Polonium und Radium entdeckte.

Dank der Entdeckung begann 1897 die Geschichte der Erforschung der Struktur des Atoms J. Thomson Elektron – ein negativ geladenes Teilchen, das Teil aller Atome ist. Da Elektronen negativ geladen sind und das Atom insgesamt elektrisch neutral ist, wurde angenommen, dass es neben dem Elektron ein positiv geladenes Teilchen gibt. Berechnungen zufolge betrug die Masse des Elektrons 1/1836 der Masse eines positiv geladenen Teilchens – eines Protons.

Basierend auf der im Vergleich zum Elektron riesigen Masse eines positiv geladenen Teilchens, dem englischen Physiker W. Thomson(Herr Kelvin) schlug 1902 das erste Atommodell vor – eine positive Ladung ist über eine ziemlich große Fläche verteilt und darin sind Elektronen eingestreut, wie „Rosinen im Pudding“. Diese Idee wurde entwickelt J. Thomson. J. Thomsons Atommodell, an dem er fast 15 Jahre lang arbeitete, konnte einer experimentellen Überprüfung nicht widerstehen.

Im Jahr 1908 E. Marsden Und X . Geiger, Die Mitarbeiter von E. Rutherford führten Experimente zum Durchgang von Alphateilchen durch dünne Platten aus Gold und anderen Metallen durch und stellten fest, dass fast alle von ihnen die Platte passierten, als ob es kein Hindernis gäbe, und nur 1/10.000 von ihnen eine starke Ablenkung erfuhren. Das Modell von J. Thomson konnte dies nicht erklären, aber E. Rutherford fand einen Ausweg. Er machte darauf aufmerksam, dass die meisten Teilchen um einen kleinen Winkel und einen kleinen Teil um bis zu 150° abgelenkt werden. E. Rutherford kam zu dem Schluss, dass sie auf ein Hindernis gestoßen sind; dieses Hindernis ist der Kern eines Atoms – ein positiv geladenes Mikroteilchen, dessen Größe (10-12 cm) im Vergleich zur Größe eines Atoms sehr klein ist ( 10-8 cm), aber es konzentriert sich fast ausschließlich auf die Masse des Atoms.

Das 1911 von E. Rutherford vorgeschlagene Atommodell ähnelte dem Sonnensystem: Im Zentrum befindet sich ein Atomkern, um den sich Elektronen auf ihren Bahnen bewegen.

Der Kern ist positiv geladen und die Elektronen sind negativ geladen. Anstelle der im Sonnensystem wirkenden Gravitationskräfte wirken im Atom elektrische Kräfte. Die elektrische Ladung des Atomkerns, numerisch gleich der Seriennummer im Periodensystem von Mendelejew, wird durch die Summe der Ladungen der Elektronen ausgeglichen – das Atom ist elektrisch neutral.

Der unlösbare Widerspruch dieses Modells bestand darin, dass sich Elektronen um den Kern bewegen müssen, um ihre Stabilität nicht zu verlieren. Gleichzeitig müssen sie nach den Gesetzen der Elektrodynamik elektromagnetische Energie abstrahlen. In diesem Fall würden die Elektronen jedoch sehr schnell ihre gesamte Energie verlieren und auf den Kern fallen.

Der nächste Widerspruch hängt mit der Tatsache zusammen, dass das Emissionsspektrum eines Elektrons kontinuierlich sein muss, da das Elektron bei Annäherung an den Kern seine Frequenz ändern würde. Die Erfahrung zeigt, dass Atome Licht nur bei bestimmten Frequenzen aussenden. Aus diesem Grund werden Atomspektren Linienspektren genannt. Mit anderen Worten: Rutherfords Planetenmodell des Atoms erwies sich als unvereinbar mit der Elektrodynamik von J. C. Maxwell.

1913 der große dänische Physiker N. Bor wandte das Prinzip der Quantisierung an, um das Problem der Struktur des Atoms und der Eigenschaften von Atomspektren zu lösen.

N. Bohrs Atommodell basierte auf dem Planetenmodell von E. Rutherford und der von ihm entwickelten Quantentheorie der Atomstruktur. N. Bohr stellte eine Hypothese über die Struktur des Atoms auf, die auf zwei Postulaten beruhte, die mit der klassischen Physik völlig unvereinbar sind:

1) In jedem Atom gibt es mehrere stationär mit Stehen(in der Sprache des Planetenmodells mehrere stationäre Umlaufbahnen) von Elektronen, entlang derer ein Elektron existieren kann, nicht strahlend;

2) wann Übergang Elektron von einem stationären Zustand in ein anderes Atom strahlt aus oder absorbiert einen Teil der Energie.

Bohrs Postulate erklären die Stabilität von Atomen: Elektronen in stationären Zuständen emittieren keine elektromagnetische Energie ohne äußeren Grund. Es wird deutlich, warum Atome chemischer Elemente keine Strahlung aussenden, wenn sich ihr Zustand nicht ändert. Auch die Linienspektren von Atomen werden erklärt: Jede Linie des Spektrums entspricht dem Übergang eines Elektrons von einem Zustand in einen anderen.

Die Atomtheorie von N. Bohr ermöglichte eine genaue Beschreibung des Wasserstoffatoms, bestehend aus einem Proton und einem Elektron, die recht gut mit experimentellen Daten übereinstimmte. Eine weitere Ausweitung der Theorie auf Mehrelektronenatome und -moleküle stieß auf unüberwindbare Schwierigkeiten. Je mehr Theoretiker versuchten, die Bewegung von Elektronen in einem Atom zu beschreiben und ihre Umlaufbahnen zu bestimmen, desto größer war die Diskrepanz zwischen theoretischen Ergebnissen und experimentellen Daten. Wie sich bei der Entwicklung der Quantentheorie herausstellte, hingen diese Diskrepanzen hauptsächlich mit den Welleneigenschaften des Elektrons zusammen. Die Wellenlänge eines Elektrons, das sich in einem Atom bewegt, beträgt etwa 10-8 cm, d.h. sie liegt in der gleichen Größenordnung wie die Größe eines Atoms. Die Bewegung eines Teilchens, das zu einem beliebigen System gehört, kann nur dann mit ausreichender Genauigkeit als mechanische Bewegung eines materiellen Punktes entlang einer bestimmten Umlaufbahn (Flugbahn) beschrieben werden, wenn die Wellenlänge des Teilchens im Vergleich zur Größe des Systems vernachlässigbar ist. Mit anderen Worten, es sollte berücksichtigt werden Das Elektron ist kein Punkt oder eine feste Kugel, es hat eine innere Struktur, die je nach Zustand variieren kann. Die Details der inneren Struktur des Elektrons sind jedoch unbekannt.

Folglich ist es grundsätzlich unmöglich, die Struktur eines Atoms anhand der Vorstellung der Bahnen von Punktelektronen genau zu beschreiben, da solche Bahnen tatsächlich nicht existieren. Aufgrund ihrer Wellennatur sind Elektronen und ihre Ladungen sozusagen im gesamten Atom verschmiert, jedoch nicht gleichmäßig, sondern so, dass an manchen Stellen die zeitlich gemittelte Ladungsdichte der Elektronen größer und an anderen geringer ist .

Eine Beschreibung der Verteilung der Elektronenladungsdichte wurde in der Quantenmechanik gegeben: Die Elektronenladungsdichte ergibt an bestimmten Punkten ein Maximum. Die Kurve, die die Punkte maximaler Dichte verbindet, wird offiziell Elektronenbahn genannt. Die in der Theorie von N. Bohr berechneten Trajektorien für ein Einelektronen-Wasserstoffatom stimmten mit den Kurven der maximalen durchschnittlichen Ladungsdichte überein, was die Übereinstimmung mit den experimentellen Daten bestimmte.

Die Theorie von N. Bohr stellt sozusagen die Grenze der ersten Stufe in der Entwicklung der modernen Physik dar. Dies ist der jüngste Versuch, die Struktur des Atoms auf der Grundlage der klassischen Physik zu beschreiben, ergänzt durch nur wenige neue Annahmen. Die von Bohr eingeführten Postulate zeigten dies deutlich klassische Physik nicht in der Lage, selbst die einfachsten damit verbundenen Experimente zu erklären Struktur des Atoms. Postulate, die der klassischen Physik fremd waren, verletzten ihre Integrität, ermöglichten jedoch nur die Erklärung eines kleinen Bereichs experimenteller Daten.

Es schien, dass die Postulate von N. Bohr einige neue, unbekannte Eigenschaften der Materie widerspiegelten, jedoch nur teilweise. Die Antworten auf diese Fragen wurden als Ergebnis der Entwicklung erhalten Quantenmechanik. Es zeigte sich, dieses Atommodell N. Bora ist nicht sollte wörtlich genommen werden, Wie es war am Anfang. Prozesse in Atom im Prinzip es ist verboten visuell in mechanischer Form darstellen Himmel Modelle durch Analogie Mit Ereignisse in Makrokosmos. Ich verstehe es nicht einmal Verhältnis von Raum und Zeit im Bestehenden Makrokosmos bilden erwies sich als ungeeignet zur Beschreibung mikrophysikalischer Phänomene. Das Atom der theoretischen Physiker wurde immer größer eine abstrakt nicht beobachtbare Summe von Gleichungen.

4.2.4. Elementarteilchen und das Quarkmodell des Atoms

Die Weiterentwicklung der Ideen des Atomismus war mit der Untersuchung von Elementarteilchen verbunden. Teilchen, aus denen ein zuvor „unteilbares“ Atom besteht, werden als Elementarteilchen bezeichnet. Hierzu zählen auch jene Teilchen, die unter experimentellen Bedingungen an leistungsstarken Beschleunigern erzeugt werden. Derzeit wurden mehr als 350 Mikropartikel entdeckt.

Begriff "Elementarteilchen" Ursprünglich waren damit die einfachsten Teilchen gemeint, die sich nicht weiter in irgendetwas zerlegen lassen und allen materiellen Bildungen zugrunde liegen. Später erkannten die Physiker die gesamte Konvention des Begriffs „elementar“ in Bezug auf Mikroobjekte. Nun besteht kein Zweifel daran, dass Teilchen die eine oder andere Struktur haben, dennoch existiert der historisch etablierte Name weiterhin.

Die Hauptmerkmale von Elementarteilchen sind Masse, Ladung, mittlere Lebensdauer, Spin und Quantenzahlen.

Ruhende Masse Elementarteilchen werden im Verhältnis zur Ruhemasse des Elektrons bestimmt. Es gibt Elementarteilchen, die keine Ruhemasse haben – Photonen. Die nach diesem Kriterium verbleibenden Partikel werden unterteilt in: Leptonen- leichte Teilchen (Elektron und Trino); Mesonen - mittlere Teilchen mit Massen von einer bis tausend Elektronenmassen; Baryonen- schwere Teilchen, deren Masse tausend Elektronenmassen übersteigt und zu denen Protonen, Neutronen, Hyperonen und viele Resonanzen gehören.

Elektrische Ladung ist ein weiteres wichtiges Merkmal von Elementarteilchen. Alle bekannten Teilchen haben eine positive, negative oder keine Ladung. Jedes Teilchen, mit Ausnahme des Photons und zweier Mesonen, entspricht Antiteilchen mit entgegengesetzter Ladung. 1967, amerikanischer Physiker M. Gell- Mann stellen Sie eine Hypothese über die Existenz von Quarks auf – Teilchen mit einer gebrochenen elektrischen Ladung.

Basierend auf ihrer Lebensdauer werden Partikel in unterteilt stabil Und instabil neu Es gibt fünf stabile Teilchen: das Photon, zwei Arten von Neutrinos, das Elektron und das Proton. Bei der Struktur von Makrokörpern spielen stabile Partikel die wichtigste Rolle. Alle anderen Teilchen sind instabil, sie existieren etwa 10-10 - 10-24 , Danach zerfallen sie.

Neben Ladung, Masse und Lebensdauer werden Elementarteilchen auch durch Konzepte beschrieben, die in der klassischen Physik keine Entsprechung haben: das Konzept "drehen", oder der Eigendrehimpuls eines Mikropartikels und das Konzept "Quantenzahlen la“, den Zustand von Elementarteilchen ausdrücken.

Nach modernen Vorstellungen werden alle Elementarteilchen in zwei Klassen eingeteilt: Fermionen(benannt nach E. Fermi) und Bosonen(benannt nach S. Bose).

Zu den Fermionen zählen Quarks und Leptonen, zu den Bosonen Feldquanten (Photonen, Vektorbosonen, Gluonen, Gravitinos und Gravitonen). Diese Partikel werden berücksichtigt wirklich elementar diese. weiter unzerlegbar. Die restlichen Partikel werden klassifiziert als bedingt elementar, diese. Verbundteilchen aus Quarks und entsprechenden Feldquanten. Fermionen bilden die Substanz Bosonen tragen Interaktion.

Elementarteilchen nehmen an allen bekannten Wechselwirkungen teil. In der Natur gibt es vier Arten grundlegender Wechselwirkungen: starke, elektromagnetische, schwache und gravitative.

Starke Interaktion findet auf der Ebene der Atomkerne statt und stellt die gegenseitige Anziehung ihrer Bestandteile dar. Es wirkt in einem Abstand von ca. 10-13 cm. Unter bestimmten Bedingungen bindet eine starke Wechselwirkung die Teilchen sehr fest, wodurch sich Materialsysteme mit hoher Bindungsenergie bilden – Atomkerne. Aus diesem Grund sind die Atomkerne sehr stabil und schwer zu zerstören.

Elektromagnetische Wechselwirkung etwa tausendmal schwächer als ein starker, aber mit viel größerer Reichweite. Diese Art der Wechselwirkung ist charakteristisch für elektrisch geladene Teilchen. Der Träger der elektromagnetischen Wechselwirkung ist ein Photon ohne Ladung – ein Quantum des elektromagnetischen Feldes. Bei der elektromagnetischen Wechselwirkung verbinden sich Elektronen und Atomkerne zu Atomen und Atome zu Molekülen. In gewissem Sinne ist diese Wechselwirkung grundlegend in der Chemie und Biologie.

Schwach Interaktion möglicherweise zwischen verschiedenen Teilchen. Es erstreckt sich über eine Distanz in der Größenordnung von 10-15-10-22 cm und ist hauptsächlich mit dem Zerfall von Teilchen verbunden, beispielsweise mit der Umwandlung eines Neutrons in ein Proton, ein Elektron und ein Antineutrino im Atomkern. Nach heutigem Wissensstand sind die meisten Teilchen gerade aufgrund der schwachen Wechselwirkung instabil.

Gravitationswechselwirkung - das schwächste, in der Theorie der Elementarteilchen nicht berücksichtigte, da es bei charakteristischen Abständen von etwa 10-13 cm extrem kleine Effekte ergibt. Bei ultrakurzen Distanzen (in der Größenordnung von 10–33 cm) und bei ultrahohen Energien gewinnt die Schwerkraft jedoch wieder an Bedeutung. Hier beginnen sich die ungewöhnlichen Eigenschaften des physikalischen Vakuums zu zeigen. Superschwere virtuelle Teilchen erzeugen um sich herum ein spürbares Gravitationsfeld, das die Geometrie des Raums zu verzerren beginnt. Auf kosmischer Ebene ist die Gravitationswechselwirkung von entscheidender Bedeutung. Sein Wirkungsbereich ist nicht begrenzt.

Die Zeit, in der die Umwandlung von Elementarteilchen stattfindet, hängt von der Wechselwirkungskraft ab. Mit starken Wechselwirkungen verbundene Kernreaktionen treten innerhalb von 10-24-10-23 s auf. Dies ist ungefähr die kürzeste Zeitspanne, in der ein auf hohe Energien beschleunigtes Teilchen auf eine Geschwindigkeit nahe der Lichtgeschwindigkeit ein Elementarteilchen mit einer Größe von etwa 10-13 cm durchquert. Durch elektromagnetische Wechselwirkungen verursachte Veränderungen finden innerhalb von 10-19-10-21 s statt, schwache (zum Beispiel der Zerfall von Elementarteilchen) - hauptsächlich innerhalb von 10-10 s.

Anhand des Zeitpunkts verschiedener Transformationen kann man die Stärke der damit verbundenen Wechselwirkungen beurteilen.

Alle vier Interaktionen sind notwendig und ausreichend, um eine vielfältige Welt aufzubauen.

Ohne starke Wechselwirkungen gäbe es keine Atomkerne und Sterne und die Sonne wären nicht in der Lage, mithilfe der Kernenergie Wärme und Licht zu erzeugen.

Ohne elektromagnetische Wechselwirkungen gäbe es keine Atome, keine Moleküle, keine makroskopischen Objekte sowie Wärme und Licht.

Ohne schwache Wechselwirkungen wären Kernreaktionen in den Tiefen der Sonne und der Sterne nicht möglich, es gäbe keine Supernova-Explosionen und die für das Leben notwendigen schweren Elemente könnten sich nicht im gesamten Universum ausbreiten.

Ohne die Wechselwirkung der Gravitation gäbe es nicht nur keine Galaxien, Sterne und Planeten, sondern das gesamte Universum könnte sich auch nicht entwickeln, da die Schwerkraft ein verbindender Faktor ist, der die Einheit des Universums als Ganzes und seine Entwicklung gewährleistet.

Die moderne Physik ist zu dem Schluss gekommen, dass alle vier grundlegenden Wechselwirkungen, die zur Schaffung einer komplexen und vielfältigen materiellen Welt aus Elementarteilchen erforderlich sind, durch eine grundlegende Wechselwirkung erreicht werden können – die Superkraft. Die bemerkenswerteste Leistung war der Nachweis, dass sich bei sehr hohen Temperaturen (oder Energien) alle vier Wechselwirkungen zu einer verbinden.

Bei einer Energie von 100 GeV (100 Milliarden Elektronenvolt) vereinen sich elektromagnetische und schwache Kräfte. Diese Temperatur entspricht der Temperatur des Universums 10 – 10 s nach dem Urknall. Bei einer Energie von 1015 GeV verbindet sie eine starke Wechselwirkung und bei einer Energie von 1019 GeV kommt es zu einer Kombination aller vier Wechselwirkungen.

Diese Annahme ist rein theoretisch, da sie experimentell nicht verifiziert werden kann. Diese Ideen werden indirekt durch astrophysikalische Daten bestätigt, die als vom Universum gesammeltes experimentelles Material betrachtet werden können.

Fortschritte auf dem Gebiet der Elementarteilchenforschung trugen zur Weiterentwicklung des Atomismuskonzepts bei. Derzeit geht man davon aus, dass wir unter den vielen Elementarteilchen unterscheiden können 12 fundamentale Teilchen und die gleiche Anzahl von Antiteilchen1. Die sechs Teilchen sind Quarks mit exotischen Namen: „upper“, „lower“, „charmed“, „strange“, „true“, „lovely“. Die restlichen sechs sind Leptonen: Elektron, Myon, Tau-Teilchen und ihre entsprechenden Neutrinos (Elektron, Myon, Tau-Neutrino).

Diese 12 Partikel werden in drei Generationen eingeteilt, die jeweils aus vier Mitgliedern bestehen.

In der ersten Generation gibt es „Upper“- und „Downward“-Quarks, ein Elektron und ein Elektron-Neutrino.

In der zweiten Generation gibt es „charmante“ und „seltsame“ Quarks, Myonen und Myonenneutrinos.

In der dritten Generation – „echte“ und „schöne“ Quarks und Tau-Teilchen mit ihren Neutrinos.

Gewöhnliche Materie besteht aus Teilchen der ersten Generation.

Es wird angenommen, dass die verbleibenden Generationen künstlich an Beschleunigern geladener Teilchen erzeugt werden können.

Mithilfe des Quark-Modells haben Physiker eine einfache und elegante Lösung für das Problem der Atomstruktur entwickelt.

Jedes Atom besteht aus einem schweren Kern (stark gebunden durch die Gluonenfelder von Protonen und Neutronen) und einer Elektronenhülle. Die Anzahl der Protonen im Kern entspricht der Ordnungszahl des Elements im Periodensystem der chemischen Elemente D.I. Mendelejew. Ein Proton hat eine positive elektrische Ladung, eine Masse, die 1836-mal größer ist als die Masse eines Elektrons, Abmessungen in der Größenordnung von 10 - 13 cm. Die elektrische Ladung eines Neutrons ist Null. Ein Proton besteht gemäß der Quark-Hypothese aus zwei „Up“-Quarks und einem „Down“-Quark, und ein Neutron besteht aus einem „Up“- und zwei „Down“-Quarks. Man kann sie sich nicht als feste Kugel vorstellen; vielmehr ähneln sie einer Wolke mit verschwommenen Grenzen, bestehend aus virtuellen Teilchen, die entstehen und verschwinden.

Es gibt immer noch Fragen zum Ursprung von Quarks und Leptonen, ob sie die wichtigsten „Bausteine“ der Natur sind und wie grundlegend sie sind. Antworten auf diese Fragen werden in der modernen Kosmologie gesucht. Von großer Bedeutung ist die Untersuchung der Entstehung von Elementarteilchen aus dem Vakuum, die Konstruktion von Modellen der primären Kernfusion, die zum Zeitpunkt der Geburt des Universums bestimmte Teilchen entstehen ließen.

4.2.5. Physikalisches Vakuum

Vakuum aus dem Lateinischen übersetzt ( Vakuum ) bedeutet Leere.

Schon in der Antike wurde die Frage aufgeworfen, ob der kosmische Raum leer oder mit einer materiellen Umgebung gefüllt ist, die sich von der Leere unterscheidet.

Nach dem philosophischen Konzept des großen antiken griechischen Philosophen Demokrit, Alle Stoffe bestehen aus Teilchen, zwischen denen sich ein Hohlraum befindet. Sondern nach dem philosophischen Konzept eines anderen ebenso berühmten antiken griechischen Philosophen Ari Stotel, Es gibt nicht den kleinsten Ort auf der Welt, an dem es „nichts“ gibt. Dieses Medium, das alle Räume des Universums durchdringt, wurde Äther genannt.

Das Konzept des „Äthers“ gelangte in die europäische Wissenschaft. Der große Newton verstand, dass das Gesetz der universellen Gravitation Sinn ergibt, wenn der Raum eine physikalische Realität hat, d. h. ist ein Medium mit physikalischen Eigenschaften. Er schrieb: „Die Idee, dass ... ein Körper einen anderen durch Leere aus der Ferne beeinflussen könnte, ohne dass etwas beteiligt wäre, das Aktion und Kraft von einem Körper auf einen anderen übertragen würde, erscheint mir absurd.“1

In der klassischen Physik gab es keine experimentellen Daten, die die Existenz des Äthers bestätigen würden. Es gab jedoch keine Daten, die dies widerlegen könnten. Newtons Autorität trug dazu bei, dass der Äther als das wichtigste Konzept der Physik galt. Der Begriff „Äther“ begann alles zu umfassen, was durch Gravitations- und elektromagnetische Kräfte verursacht wurde. Da andere grundlegende Wechselwirkungen jedoch vor dem Aufkommen der Atomphysik praktisch nicht untersucht wurden, begannen sie, alle Phänomene und Prozesse mit Hilfe des Äthers zu erklären.

Der Äther sollte die Wirkung des Gesetzes der universellen Gravitation gewährleisten; Es stellte sich heraus, dass der Äther das Medium ist, durch das sich Lichtwellen ausbreiten. Der Äther war für alle Erscheinungsformen elektromagnetischer Kräfte verantwortlich. Die Entwicklung der Physik zwang uns, dem Äther immer widersprüchlichere Eigenschaften zu verleihen.

Michelsons Experiment, das größte aller „negativen“ Experimente in der Geschichte der Wissenschaft, führte zu dem Schluss, dass die Hypothese eines stationären Weltäthers, auf die die klassische Physik große Hoffnungen gesetzt hatte, falsch war. Nachdem A. Einstein alle Annahmen über den Äther von der Zeit Newtons bis zum Beginn des 20. Jahrhunderts berücksichtigt hatte, fasste er die Ergebnisse in seinem Werk „The Evolution of Physics“ zusammen: „Alle unsere Versuche, den Äther real zu machen, sind gescheitert.“ Er entdeckte weder seine mechanische Struktur noch seine absolute Bewegung. Von allen Eigenschaften des Äthers blieb nichts übrig... Alle Versuche, die Eigenschaften des Äthers zu entdecken, führten zu Schwierigkeiten und Widersprüchen. Nach so vielen Misserfolgen kommt irgendwann der Zeitpunkt, an dem man die Sendung völlig vergessen und versuchen sollte, sie nie wieder zu erwähnen.“

In der speziellen Relativitätstheorie wurde der Begriff „Äther“ aufgegeben.

In der Allgemeinen Relativitätstheorie wurde der Raum als materielles Medium betrachtet, das mit Körpern mit gravitativen Massen wechselwirkt. Der Schöpfer der Allgemeinen Relativitätstheorie selbst glaubte, dass eine allgegenwärtige materielle Umgebung noch existieren und bestimmte Eigenschaften haben muss. Nach der Veröffentlichung von Arbeiten zur Allgemeinen Relativitätstheorie griff Einstein immer wieder auf den Begriff „Äther“ zurück und glaubte, dass „wir in der theoretischen Physik nicht ohne Äther, also ein Kontinuum mit physikalischen Eigenschaften, auskommen können“.

Der Begriff „Äther“ gehörte jedoch bereits zur Wissenschaftsgeschichte, es gab kein Zurück mehr und „ein mit physikalischen Eigenschaften ausgestattetes Kontinuum“ wurde als physikalisches Vakuum bezeichnet.

In der modernen Physik wird davon ausgegangen, dass das physikalische Vakuum, ein universelles Medium, das den gesamten Raum durchdringt, die Rolle der grundlegenden materiellen Grundlage der Welt spielt. Ein physikalisches Vakuum ist ein kontinuierliches Medium, in dem es weder Materieteilchen noch ein Feld gibt, und gleichzeitig ist es ein physikalisches Objekt und kein „Nichts“ ohne Eigenschaften. Das physikalische Vakuum wird nicht direkt beobachtet; in Experimenten wird nur die Manifestation seiner Eigenschaften beobachtet.

Arbeit ist für die Lösung von Vakuumproblemen von grundlegender Bedeutung P. Dirac. Vor ihrem Erscheinen glaubte man, dass Vakuum reines „Nichts“ sei, das sich, egal welche Transformationen es erfährt, nicht ändern kann. Diracs Theorie ebnete den Weg für Transformationen des Vakuums, bei denen sich das ehemalige „Nichts“ in viele „Teilchen-Antiteilchen“-Paare verwandeln würde.

Diracs Vakuum ist ein Meer aus Elektronen mit negativer Energie als homogenem Hintergrund, der das Auftreten elektromagnetischer Prozesse darin nicht beeinflusst. Wir beobachten Elektronen mit negativer Energie gerade deshalb nicht, weil sie einen kontinuierlichen unsichtbaren Hintergrund bilden, vor dem sich alles Weltgeschehen abspielt. Nur Veränderungen im Zustand des Vakuums, seine „Störungen“, können beobachtet werden.

Wenn ein energiereiches Lichtquant – ein Photon – in ein Elektronenmeer eintritt, verursacht es eine Störung und ein Elektron mit negativer Energie kann in einen Zustand mit positiver Energie springen, d. h. wird als freies Elektron beobachtet. Dann entsteht im Meer der negativen Elektronen ein „Loch“ und ein Paar entsteht: Elektron + Loch.

Zunächst ging man davon aus, dass es sich bei den Löchern im Dirac-Vakuum um Protonen handelte, die einzigen damals bekannten Elementarteilchen mit einer dem Elektron entgegengesetzten Ladung. Diese Hypothese sollte jedoch nicht überleben: im Experiment

Noch nie hat jemand die Vernichtung eines Elektrons mit einem Proton beobachtet.

Die Frage nach der tatsächlichen Existenz und physikalischen Bedeutung von Löchern wurde 1932 von einem amerikanischen Physiker gelöst K.A. Andersen, beschäftigte sich damit, die Spuren von Teilchen zu fotografieren, die aus dem Weltraum in einem Magnetfeld kommen. Er entdeckte in der kosmischen Strahlung die Spur eines bisher unbekannten Teilchens, das in jeder Hinsicht mit einem Elektron identisch war, aber eine Ladung mit entgegengesetztem Vorzeichen hatte. Dieses Teilchen wurde Positron genannt. Bei der Annäherung an ein Elektron vernichtet ein Positron mit diesem in zwei hochenergetische Photonen (Gammaquanten), deren Notwendigkeit durch die Energie- und Impulserhaltungssätze bestimmt wird:

Später stellte sich heraus, dass fast alle Elementarteilchen (auch solche ohne elektrische Ladung) ihre „Spiegel“-Gegenstücke haben – Antiteilchen, die mit ihnen vernichten können. Die einzige Ausnahme bilden einige wirklich neutrale Teilchen, wie zum Beispiel Photonen, die mit ihren Antiteilchen identisch sind.

Das große Verdienst von P. Dirac bestand darin, dass er eine relativistische Theorie der Elektronenbewegung entwickelte, die das Positron, die Vernichtung und die Geburt von Elektron-Positron-Paaren aus dem Vakuum vorhersagte. Es wurde deutlich, dass das Vakuum eine komplexe Struktur hat, aus der Paare entstehen können: Teilchen + Antiteilchen. Experimente an Beschleunigern bestätigten diese Annahme.

Eines der Merkmale des Vakuums ist das Vorhandensein von Feldern mit einer Energie gleich Null und ohne echte Teilchen. Es stellt sich die Frage: Wie kann ein elektromagnetisches Feld ohne Photonen, ein Elektron-Positron-Feld ohne Elektronen und Positronen usw. existieren?

Um Nullpunktfeldschwingungen im Vakuum zu erklären, wurde das Konzept eines virtuellen (möglichen) Teilchens eingeführt – eines Teilchens mit einer sehr kurzen Lebensdauer in der Größenordnung von 10–21–10–24 s. Dies erklärt, warum Teilchen – Quanten der entsprechenden Felder – ständig im Vakuum entstehen und verschwinden. Einzelne virtuelle Partikel können grundsätzlich nicht nachgewiesen werden, ihre Gesamtwirkung auf gewöhnliche Mikropartikel wird jedoch experimentell nachgewiesen. Physiker glauben, dass absolut alle Reaktionen, alle Wechselwirkungen zwischen realen Elementarteilchen unter der unverzichtbaren Beteiligung eines virtuellen Vakuumhintergrunds ablaufen, den auch Elementarteilchen beeinflussen. Aus gewöhnlichen Teilchen entstehen virtuelle Teilchen. Elektronen beispielsweise emittieren ständig virtuelle Photonen und absorbieren diese sofort.

Weitere Forschungen in der Quantenphysik widmeten sich der Untersuchung der Möglichkeit der Entstehung realer Teilchen aus einem Vakuum, wofür eine theoretische Begründung gegeben wurde E. Schrödinge Rum im Jahr 1939

Derzeit ist das Konzept des physikalischen Vakuums in den Werken des Akademikers der Russischen Akademie der Naturwissenschaften am umfassendsten entwickelt G.I. Shipova1, ist umstritten: Es gibt sowohl Befürworter als auch Gegner seiner Theorie.

Im Jahr 1998 wurde G.I. Shipov entwickelte neue Grundgleichungen, die die Struktur des physikalischen Vakuums beschreiben. Bei diesen Gleichungen handelt es sich um ein System nichtlinearer Differentialgleichungen erster Ordnung, zu dem die geometrisierten Heisenberg-Gleichungen, die geometrisierten Einstein-Gleichungen und die geometrisierten Yang-Mills-Gleichungen gehören. Raum - Zeit in der Theorie von G.I. Shipov ist nicht nur gekrümmt, wie in Einsteins Theorie, sondern auch verdreht, wie in der Riemann-Cartan-Geometrie. Französischer Mathematiker Eli Karton war der erste, der die Idee zum Ausdruck brachte, dass durch Rotation erzeugte Felder in der Natur existieren sollten. Diese Felder werden Torsionsfelder genannt. Um die Torsion des Weltraums G.I. zu berücksichtigen. Shipov führte einen Satz Winkelkoordinaten in geometrisierte Gleichungen ein, der es ermöglichte, die Winkelmetrik in der Theorie des physikalischen Vakuums zu verwenden, die das Quadrat einer infinitesimalen Drehung eines vierdimensionalen Referenzsystems bestimmt.

Die Hinzufügung von Rotationskoordinaten, mit deren Hilfe das Torsionsfeld beschrieben wird, führte zur Ausweitung des Relativitätsprinzips auf physikalische Felder: Alle in den Vakuumgleichungen enthaltenen physikalischen Felder sind relativer Natur.

Die Vakuumgleichungen führen nach entsprechenden Vereinfachungen zu den Gleichungen und Prinzipien der Quantentheorie. Die so erhaltene Quantentheorie erweist sich als deterministisch Noah, obwohl eine probabilistische Interpretation des Verhaltens von Quantenobjekten unvermeidlich bleibt. Teilchen stellen den Grenzfall einer reinen Feldformation dar, wenn die Masse (oder Ladung) dieser Formation einen konstanten Wert anstrebt. In diesem Grenzfall liegt ein Teilchen-Wellen-Dualismus vor. Da die relative Natur der mit der Rotation verbundenen physikalischen Felder nicht berücksichtigt wird, Das Die Quantentheorie ist nicht vollständig und bestätigt damit die Annahmen von A. Einstein, dass „eine perfektere Quantentheorie durch Erweiterung des Relativitätsprinzips gefunden werden kann“2.

Shilovs Vakuumgleichungen beschreiben gekrümmte und verdrehte Raumzeit, interpretiert als vakuumintelligente Anregungen in einem virtuellen Zustand.

Im Grundzustand weist das absolute Vakuum einen Durchschnittswert des Drehimpulses und anderer physikalischer Eigenschaften von Null auf und ist im ungestörten Zustand beobachtbar. Bei seinen Schwankungen entstehen unterschiedliche Vakuumzustände.

Wenn die Störungsquelle eine Gebühr ist Q , dann manifestiert sich sein Zustand als elektromagnetisches Feld.

Wenn die Störungsquelle Masse ist T, Dieser Vakuumzustand wird als Gravitationsfeld bezeichnet, das erstmals von A.D. ausgedrückt wurde. Sacharow.

Wenn die Quelle der Störung Spin ist, wird der Vakuumzustand als Spinfeld oder Torsionsfeld (Torsionsfeld) interpretiert.

Basierend auf der Tatsache, dass das physikalische Vakuum ein dynamisches System mit starken Schwankungen ist, glauben Physiker, dass das Vakuum eine Quelle von Materie und Energie ist, die sowohl bereits im Universum vorhanden ist als auch in einem latenten Zustand vorliegt. Laut dem Akademiker G.I. Naana,„Vakuum ist alles und alles ist Vakuum.“

4.3. Megaworld: moderne astrophysikalische und kosmologische Konzepte

Die moderne Wissenschaft betrachtet die Megawelt oder den Weltraum als ein interagierendes und sich entwickelndes System aller Himmelskörper. Die Megawelt verfügt über eine systemische Organisation in Form von Planeten und Planetensystemen, die um Sterne und Sternsysteme – Galaxien – entstehen.

Alle existierenden Galaxien sind im System höchster Ordnung – der Metagalaxie – enthalten. Die Dimensionen der Metagalaxie sind sehr groß: Der Radius des kosmologischen Horizonts beträgt 15-20 Milliarden Lichtjahre.

Die Konzepte „Universum“ und „Metagalaxie“ sind sehr ähnliche Konzepte: Sie charakterisieren dasselbe Objekt, jedoch in unterschiedlichen Aspekten. Konzept "Universum" bezeichnet die gesamte existierende materielle Welt; Konzept „Metagalaxie“- dieselbe Welt, aber von ihrer Struktur her wie ein geordnetes Galaxiensystem.

Die Struktur und Entwicklung des Universums werden untersucht Kosmologie. Die Kosmologie als Zweig der Naturwissenschaften befindet sich an einer einzigartigen Schnittstelle von Wissenschaft, Religion und Philosophie. Kosmologische Modelle des Universums basieren auf bestimmten ideologischen Prämissen, und diese Modelle selbst haben große ideologische Bedeutung.

4.3.1. Moderne kosmologische Modelle des Universums

Wie im vorherigen Kapitel angedeutet, gab es in der klassischen Wissenschaft ein sogenanntes Steady-State-Theorie Alle Lenna, Demnach war das Universum schon immer fast dasselbe wie jetzt. Wissenschaft des 19. Jahrhunderts betrachteten Atome als die ewigen einfachsten Elemente der Materie. Die Energiequelle der Sterne war unbekannt, daher war es unmöglich, ihre Lebensdauer zu beurteilen. Wenn sie ausgehen, wird das Universum dunkel, bleibt aber immer noch stationär. Kalte Sterne würden ihre chaotische und ewige Wanderung im Weltraum fortsetzen und die Planeten würden ihre ständige Flucht in riskanten Umlaufbahnen erzeugen. Die Astronomie war statisch: Die Bewegungen von Planeten und Kometen wurden untersucht, Sterne wurden beschrieben, ihre Klassifizierungen wurden erstellt, was natürlich sehr wichtig war. Aber die Frage nach der Entwicklung des Universums wurde nicht aufgeworfen.

Die klassische Newtonsche Kosmologie akzeptierte explizit oder implizit die folgenden Postulate1:

    Das Universum ist alles, was existiert, die „Welt als Ganzes“. Die Kosmologie erkennt die Welt so, wie sie in sich existiert, unabhängig von den Bedingungen des Wissens.

    Raum und Zeit des Universums sind absolut; sie hängen nicht von materiellen Objekten und Prozessen ab.

    Raum und Zeit sind metrisch unendlich.

    Raum und Zeit sind homogen und isotrop.

    Das Universum ist stationär und unterliegt keiner Evolution. Bestimmte Raumsysteme können sich verändern, nicht jedoch die Welt als Ganzes.

In der Newtonschen Kosmologie entstanden zwei Paradoxien im Zusammenhang mit dem Postulat der Unendlichkeit des Universums.

Das erste Paradoxon heißt Gravitation Sein Wesen besteht darin, dass, wenn das Universum unendlich ist und es unendlich viele Himmelskörper darin gibt, die Gravitationskraft unendlich groß sein wird und das Universum zusammenbrechen und nicht für immer existieren sollte.

Das zweite Paradoxon heißt photometrisch: Wenn es unendlich viele Himmelskörper gibt, dann muss es eine unendliche Leuchtkraft des Himmels geben, die nicht beobachtet wird.

Diese Paradoxien, die im Rahmen der Newtonschen Kosmologie nicht gelöst werden können, werden durch die moderne Kosmologie gelöst, in deren Grenzen die Idee eines sich entwickelnden Universums eingeführt wurde.

Die moderne relativistische Kosmologie erstellt Modelle des Universums, ausgehend von der Grundgleichung der Schwerkraft, die A. Einstein in der Allgemeinen Relativitätstheorie (GTR) eingeführt hat.

Die Grundgleichung der Allgemeinen Relativitätstheorie verbindet die Geometrie des Raumes (genauer gesagt den metrischen Tensor) mit der Dichte und Verteilung der Materie im Raum.

Zum ersten Mal in der Wissenschaft erschien das Universum als physisches Objekt. Die Theorie umfasst ihre Parameter: Masse, Dichte, Größe, Temperatur.

Einsteins Gravitationsgleichung hat nicht eine, sondern viele Lösungen, was die Existenz vieler kosmologischer Modelle des Universums erklärt. Das erste Modell wurde 1917 von A. Einstein entwickelt. Er lehnte die Postulate der Newtonschen Kosmologie über die Absolutheit und Unendlichkeit des Raumes ab. Gemäß A. Einsteins kosmologischem Modell des Universums ist der Weltraum homogen und isotrotisch, die Materie ist im Durchschnitt gleichmäßig verteilt, die Anziehungskraft der Massen wird durch die universelle kosmologische Abstoßung kompensiert. Das Modell von A. Einstein ist stationärer Natur, da die Raummetrik als unabhängig von der Zeit betrachtet wird. Die Existenz des Universums ist unendlich, d.h. hat keinen Anfang und kein Ende, und der Raum ist grenzenlos, aber endlich.

Das Universum im kosmologischen Modell von A. Einstein ist stationär, zeitlich unendlich und räumlich grenzenlos.

Dieses Modell erschien damals durchaus zufriedenstellend, da es mit allen bekannten Fakten übereinstimmte. Doch neue Ideen von A. Einstein regten zu weiterer Forschung an, und schon bald änderte sich die Herangehensweise an das Problem entscheidend.

Ebenfalls im Jahr 1917 der niederländische Astronom W. de Sitter schlug ein anderes Modell vor, das ebenfalls eine Lösung der Gravitationsgleichungen darstellt. Diese Lösung hatte die Eigenschaft, dass sie auch im Falle eines „leeren“ Universums ohne Materie existieren würde. Wenn in einem solchen Universum Massen auftraten, hörte die Lösung auf, stationär zu sein: Es entstand eine Art kosmische Abstoßung zwischen den Massen, die dazu neigte, sie voneinander wegzubewegen. Expansionstrend Von V. de Sitter, machte sich erst auf sehr große Entfernungen bemerkbar.

Im Jahr 1922 russischer Mathematiker und Geophysiker A.A. Friedmann verwarf das Postulat der klassischen Kosmologie über die Stationarität des Universums und erhielt eine Lösung für Einsteins Gleichungen, die das Universum mit „ausdehnendem“ Raum beschreibt.

Lösen der Gleichungen von A.A. Friedman lässt drei Möglichkeiten zu. Wenn die durchschnittliche Materie- und Strahlungsdichte im Universum einem bestimmten kritischen Wert entspricht, erweist sich der Weltraum als euklidisch und das Universum dehnt sich ausgehend vom ursprünglichen Punktzustand unbegrenzt aus. Wenn die Dichte unter dem kritischen Wert liegt, hat der Raum Lobatschewski-Geometrie und dehnt sich ebenfalls unbegrenzt aus. Und schließlich, wenn die Dichte größer als der kritische Wert ist, erweist sich der Raum des Universums als Riemannscher Raum; die Expansion wird irgendwann durch eine Kompression ersetzt, die bis zum anfänglichen Punktzustand anhält.

Da die durchschnittliche Materiedichte im Universum unbekannt ist, wissen wir heute nicht, in welchem ​​dieser Räume des Universums wir leben.

Im Jahr 1927 wurde der belgische Abt und Wissenschaftler J. Lvmeter verband die „Ausdehnung“ des Weltraums mit Daten aus astronomischen Beobachtungen. Lemaitre führte das Konzept des „Beginns des Universums“ als Singularität (d. h. eines superdichten Zustands) und der Geburt des Universums als Urknall ein.

Im Jahr 1929 ein amerikanischer Astronom E.P. Hubble entdeckte die Existenz eines seltsamen Zusammenhangs zwischen der Entfernung und der Geschwindigkeit von Galaxien: Alle Galaxien entfernen sich von uns, und zwar mit einer Geschwindigkeit, die proportional zur Entfernung zunimmt - ha-System die Milch dehnt sich aus.

Die Expansion des Universums gilt seit langem als wissenschaftlich gesicherte Tatsache, doch derzeit scheint es nicht möglich, das Problem eindeutig zugunsten des einen oder anderen Modells zu lösen.

4.3.2. Das Problem des Ursprungs und der Entwicklung des Universums

Unabhängig davon, wie die Frage nach der Vielfalt kosmologischer Modelle gelöst wird, ist es offensichtlich, dass sich unser Universum weiterentwickelt. Nach den theoretischen Berechnungen von J. Lemaitre betrug der Radius des Universums in seinem ursprünglichen Zustand 10–12 cm, was in etwa dem Radius eines Elektrons entspricht, und seine Dichte betrug 1096 g/cm3. Im singulären Zustand war das Universum ein Mikroobjekt von vernachlässigbarer Größe.

Ausgehend vom anfänglichen singulären Zustand expandierte das Universum infolge des Urknalls. Seit Ende der 40er Jahre. Im letzten Jahrhundert hat die Physik von Prozessen in verschiedenen Stadien der kosmologischen Expansion zunehmende Aufmerksamkeit in der Kosmologie auf sich gezogen. Student A.A. Friedmann G.A. Gamow ein Modell entwickelt heiß Universum, nachdem er die Kernreaktionen betrachtet hatte, die ganz am Anfang der Expansion des Universums stattfanden, und sie benannte "flechten Theologie des Urknalls.

Retrospektive Berechnungen schätzen das Alter des Universums auf 13 bis 15 Milliarden Jahre. G.A. Gamow schlug diese Temperatur vor 130

Die Macht war groß und nahm mit der Expansion des Universums ab. Seine Berechnungen zeigten, dass das Universum in seiner Entwicklung bestimmte Stadien durchläuft, in denen die Bildung chemischer Elemente und Strukturen erfolgt. In der modernen Kosmologie wird der Klarheit halber die Anfangsphase der Entwicklung des Universums in Epochen unterteilt1.

Hadronen-Ära(schwere Teilchen, die starke Wechselwirkungen eingehen). Die Dauer der Ära beträgt 0,0001 s, die Temperatur beträgt 1012 Grad Kelvin, die Dichte beträgt 1014 cm3. Am Ende der Ära kommt es zur Vernichtung von Teilchen und Antiteilchen, es bleibt jedoch eine bestimmte Anzahl von Protonen, Hyperonen und Mesonen übrig.

Ära der Leptonen(Lichtteilchen treten in elektromagnetische Wechselwirkung). Die Dauer der Ära beträgt 10 s, die Temperatur beträgt 10 10 Grad Kelvin, die Dichte beträgt 104/cm3. Die Hauptrolle spielen dabei Lichtteilchen, die an Reaktionen zwischen Protonen und Neutronen beteiligt sind.

Photonen-Ära. Dauer 1 Million Jahre. Der Großteil der Masse – die Energie des Universums – stammt von Photonen. Am Ende der Ära sinkt die Temperatur von 1010 auf 3000 Kelvin, die Dichte von 104 g/cm3 auf 10 21 g/cm3. Die Hauptrolle spielt die Strahlung, die sich am Ende der Ära von der Materie trennt.

Star-Ära geschieht 1 Million Jahre nach der Geburt des Universums. Im Sternzeitalter beginnt der Prozess der Bildung von Proto-Alltagen und Proto-Galaxien.

Dann entfaltet sich ein grandioses Bild der Entstehung der Struktur der Metagalaxie.

In der modernen Kosmologie wird neben der Urknallhypothese auch die sogenannte Inflationsmodell Universum, in dem die Idee der Entstehung des Universums betrachtet wird. Diese Idee hat eine sehr komplexe Begründung und ist mit der Quantenkosmologie verbunden. Dieses Modell beschreibt die Entwicklung des Universums ab dem Moment 10–45 s nach Beginn der Expansion.

Gemäß der Inflationshypothese durchläuft die kosmische Entwicklung im frühen Universum mehrere Phasen.

Start Das Universum wird von theoretischen Physikern als Zustand definiert Quanten-Supergravitation wobei der Radius des Universums 10–50 cm beträgt (zum Vergleich: Die Größe eines Atoms ist definiert als 10–8 cm und die Größe eines Atomkerns beträgt 10–13 cm). Die Hauptereignisse im frühen Universum ereigneten sich in einem vernachlässigbar kurzen Zeitraum von 10–45 s bis 10–30 s.

Inflationsphase. Durch den Quantensprung gelangte das Universum in einen Zustand angeregten Vakuums und dehnte sich in Abwesenheit von Materie und Strahlung nach einem Exponentialgesetz intensiv aus. In dieser Zeit wurden Raum und Zeit des Universums selbst geschaffen. Während der Inflationsphase, die 10–34 s dauerte, blähte sich das Universum von einer unvorstellbar kleinen Quantengröße von 10–33 cm auf eine unvorstellbar große Quantengröße von 101.000.000 auf cm, was viele Größenordnungen größer ist als die Größe des beobachtbaren Universums – 1028 cm. Während dieser gesamten Anfangsperiode gab es im Universum weder Materie noch Strahlung.

Übergang vom Inflationsstadium zum Photonenstadium. Der Zustand des falschen Vakuums löste sich auf, die freigesetzte Energie führte zur Entstehung schwerer Teilchen und Antiteilchen, die nach ihrer Vernichtung einen starken Strahlungsblitz (Licht) erzeugten, der den Raum erleuchtete.

Stadium der Trennung von Materie und Strahlung: Die nach der Vernichtung verbleibende Substanz wurde für Strahlung transparent und der Kontakt zwischen Substanz und Strahlung verschwand. Die von der Materie getrennte Strahlung stellt den modernen Relikthintergrund dar, theoretisch vorhergesagt von G.A. Gamow und experimentell im Jahr 1965 entdeckt.

Anschließend verlief die Entwicklung des Universums in die entgegengesetzte Richtung Mohn der einfachste homogene Zustand immer mehr zu erschaffen komplexe Strukturen- Atome (ursprünglich Wasserstoffatome), Galaxien, Sterne, Planeten, die Synthese schwerer Elemente im Inneren von Sternen, einschließlich derjenigen, die für die Entstehung des Lebens, die Entstehung des Lebens und als Krone der Schöpfung des Menschen notwendig sind.

Der Unterschied zwischen den Stadien der Entwicklung des Universums im Inflationsmodell und im Urknallmodell betrifft nur das Anfangsstadium in der Größenordnung von 10 bis 30 Sekunden. Daher gibt es zwischen diesen Modellen keine grundlegenden Unterschiede im Verständnis der Stadien kosmische Evolution. Unterschiede in der Erklärung der Mechanismen der kosmischen Evolution sind mit unterschiedlichen Weltanschauungen verbunden. Von Beginn der Entstehung der Idee eines expandierenden und sich entwickelnden Universums an begann ein Kampf darum.

Das erste war das Problem des Anfangs und Endes der Existenzzeit des Universums, dessen Anerkennung den materialistischen Aussagen über die Ewigkeit der Zeit und die Unendlichkeit des Raums, die Unerschaffbarkeit und Unzerstörbarkeit der Materie widersprach.

Was sind die naturwissenschaftlichen Begründungen für den Beginn und das Ende der Existenz des Universums?

Diese Rechtfertigung wird 1965 von amerikanischen theoretischen Physikern bewiesen Penrose und S. Hawking ein Satz, nach dem es in jedem Modell des Universums mit Expansion notwendigerweise eine Singularität geben muss – einen Bruch in Zeitlinien in der Vergangenheit, der als Beginn der Zeit verstanden werden kann. Das Gleiche gilt für die Situation, wenn die Expansion durch die Komprimierung ersetzt wird – dann kommt es in der Zukunft zu einem Bruch in den Zeitlinien – dem Ende der Zeit. Darüber hinaus wird der Punkt, an dem die Kompression beginnt, von einem Physiker interpretiert F. Tiple Rum als das Ende der Zeit – der Große Abfluss, in den nicht nur Galaxien fließen, sondern auch die „Ereignisse“ der gesamten Vergangenheit des Universums.

Das zweite Problem hängt mit der Erschaffung der Welt aus dem Nichts zusammen. Materialisten lehnten die Möglichkeit einer Schöpfung ab, da Vakuum nicht nichts, sondern eine Art Materie sei. Ja, das stimmt, Vakuum ist eine besondere Art von Materie. Tatsache ist jedoch, dass A.A. Friedman leitet mathematisch gesehen den Zeitpunkt des Beginns der Raumausdehnung nicht von ultraklein, sondern von ab null Volumen. In seinem 1923 erschienenen populären Buch „Die Welt als Raum und Zeit“ spricht er von der Möglichkeit, „aus dem Nichts eine Welt zu erschaffen“.

In der Theorie des physikalischen Vakuums G.I. Shilov, die höchste Ebene der Realität ist der geometrische Raum – das absolute Nichts. Diese Position seiner Theorie spiegelt die Aussagen des englischen Mathematikers W. Clifford wider, dass es auf der Welt nichts außer dem Raum mit seiner Torsion und Krümmung gibt und dass Materie Raumklumpen sind, eigentümliche Krümmungshügel vor dem Hintergrund des flachen Raums. Die Ideen von W. Clifford wurden auch von A. Einstein verwendet, der in der Allgemeinen Relativitätstheorie erstmals den allgemeinen tiefen Zusammenhang zwischen dem abstrakten geometrischen Konzept der Raumkrümmung und den physikalischen Problemen der Gravitation zeigte.

Aus dem absoluten Nichts, dem leeren geometrischen Raum, entstehen durch seine Torsion Raum-Zeit-Wirbel mit Rechts- und Linksdrehung, die Informationen tragen. Diese Wirbel können als ein den Raum durchdringendes Informationsfeld interpretiert werden. Die Gleichungen, die das Informationsfeld beschreiben, sind nichtlinear, sodass Informationsfelder eine komplexe interne Struktur aufweisen können, die es ihnen ermöglicht, Träger erheblicher Informationsmengen zu sein.

Primäre Torsionsfelder (Informationsfelder) erzeugen ein physikalisches Vakuum, das der Träger aller anderen physikalischen Felder ist – elektromagnetische Felder, Gravitationsfelder und Torsionsfelder. Unter Bedingungen der Anregung durch Informationsenergie erzeugt Vakuum materielle Mikropartikel.

In den 80er Jahren wurde versucht, eines der Hauptprobleme des Universums zu lösen – die Entstehung von allem aus dem Nichts. 20. Jahrhundert Amerikanischer Physiker A. Gut und sowjetischer Physiker A. Linde. Die konservierte Energie des Universums wurde in gravitative und nichtgravitative Anteile mit unterschiedlichen Vorzeichen unterteilt. Und dann wird die Gesamtenergie des Universums gleich Null sein. Physiker glauben, dass, wenn sich die vorhergesagte Nichterhaltung der Baryonenzahl bestätigt, dann Dann wird keines der Naturschutzgesetze die Geburt des Universums aus dem Nichts verhindern. Dieses Modell kann vorerst nur theoretisch berechnet werden und die Frage bleibt offen.

Die größte Schwierigkeit für Wissenschaftler liegt in der Erklärung Gründe dafür kosmische Evolution. Wenn wir die Einzelheiten beiseite lassen, können wir zwei Hauptkonzepte unterscheiden, die die Entwicklung des Universums erklären: das Konzept der Selbstorganisation und das Konzept des Kreationismus.

Für Selbstorganisationskonzepte Das materielle Universum ist die einzige Realität, und außer ihr existiert keine andere Realität. Die Entwicklung des Universums wird als Selbstorganisation beschrieben: Es kommt zu einer spontanen Ordnung von Systemen in Richtung der Bildung immer komplexerer Strukturen. Dynamisches Chaos schafft Ordnung. Frage über Ziele Die kosmische Evolution lässt sich nicht in den Rahmen des Konzepts der Selbstorganisation einordnen.

Im Rahmen Konzepte des Kreationismus, diese. Die Schöpfung, die Entwicklung des Universums ist mit der Verwirklichung verbunden Programme, bestimmt durch eine Realität höherer Ordnung als die materielle Welt. Befürworter des Kreationismus machen auf die Existenz einer gerichteten Nomogenese im Universum aufmerksam (aus dem Griechischen. nomos - Gesetz und Genesis - Ursprung) - Entwicklung von einfachen Systemen zu immer komplexeren und informationsintensiveren Systemen, in deren Verlauf die Voraussetzungen für die Entstehung von Leben und Menschen geschaffen wurden. Als zusätzliches Argument verwenden wir anthropischer Prin cip, formuliert von englischen Astrophysikern B. Carrom Und Rissom.

Der Kern des anthroponometrischen Prinzips besteht darin, dass die Existenz des Universums, in dem wir leben, von den numerischen Werten grundlegender physikalischer Konstanten abhängt – der Planckschen Konstante, der Gravitationskonstante, Wechselwirkungskonstanten usw.

Die Zahlenwerte dieser Konstanten bestimmen die Hauptmerkmale des Universums, die Größe von Atomen, Atomkernen, Planeten, Sternen, die Dichte der Materie und die Lebensdauer des Universums. Wenn diese Werte auch nur geringfügig von den bestehenden abweichen würden, wäre nicht nur Leben unmöglich, sondern auch das Universum selbst als komplexe geordnete Struktur wäre unmöglich. Daraus wird die Schlussfolgerung gezogen, dass die physikalische Struktur des Universums auf die Entstehung von Leben programmiert und ausgerichtet ist. Das ultimative Ziel der kosmischen Evolution ist das Erscheinen des Menschen im Universum gemäß den Plänen des Schöpfers1.

Unter modernen theoretischen Physikern gibt es Befürworter sowohl des Konzepts der Selbstorganisation als auch des Konzepts des Kreationismus. Letztere erkennen an, dass die Entwicklung der grundlegenden theoretischen Physik es dringend erforderlich macht, ein einheitliches wissenschaftlich-theistisches Bild der Welt zu entwickeln, das alle Errungenschaften auf dem Gebiet des Wissens und des Glaubens zusammenfasst. Die ersten vertreten streng wissenschaftliche Ansichten.

4.3.3. Struktur des Universums

Das Universum ist auf verschiedenen Ebenen, von herkömmlichen Elementarteilchen bis hin zu riesigen Supergalaxienhaufen, durch seine Struktur gekennzeichnet. Die moderne Struktur des Universums ist das Ergebnis der kosmischen Evolution, bei der Galaxien aus Protogalaxien, Sterne aus Protosternen und Planeten aus protoplanetaren Wolken entstanden.

Metagalaxie ist eine Ansammlung von Sternsystemen – Galaxien, deren Struktur durch ihre Verteilung im Raum bestimmt wird, gefüllt mit extrem verdünntem intergalaktischem Gas und durchdrungen von intergalaktischen Strahlen.

Nach modernen Konzepten zeichnet sich die Metagalaxie durch eine zelluläre (maschige, poröse) Struktur aus. Diese Ideen basieren auf Daten astronomischer Beobachtungen, die gezeigt haben, dass Galaxien nicht gleichmäßig verteilt sind, sondern sich in der Nähe der Zellgrenzen konzentrieren, in denen es fast keine Galaxien gibt. Darüber hinaus wurden riesige Weltraumvolumina gefunden (in der Größenordnung von einer Million Kubikmegaparsec), in denen Galaxien noch nicht entdeckt wurden. Ein räumliches Modell einer solchen Struktur kann ein Stück Bimsstein sein, der in kleinen isolierten Volumina heterogen, in großen Volumina jedoch homogen ist.

Wenn wir nicht einzelne Abschnitte der Metagalaxie betrachten, sondern ihre großräumige Struktur als Ganzes, dann ist es offensichtlich, dass es in dieser Struktur keine besonderen, unterschiedlichen Orte oder Richtungen gibt und die Materie relativ gleichmäßig verteilt ist.

Das Alter der Metagalaxie liegt nahe am Alter des Universums, da die Bildung ihrer Struktur in der Zeit nach der Trennung von Materie und Strahlung erfolgt. Nach modernen Daten wird das Alter der Metagalaxie auf 15 Milliarden Jahre geschätzt. Wissenschaftler glauben, dass offenbar auch das Alter der Galaxien, die sich in einem der Anfangsstadien der Expansion der Metagalaxie gebildet haben, in diesem Bereich liegt.

Galaxis- ein riesiges System bestehend aus Sternhaufen und Nebeln, die im Weltraum eine ziemlich komplexe Konfiguration bilden.

Aufgrund ihrer Form werden Galaxien herkömmlicherweise in drei Typen eingeteilt: elliptisch, spiralförmig und unregelmäßig.

Elliptisch Galaxien haben eine räumliche Ellipsoidform mit unterschiedlichem Kompressionsgrad. Sie haben die einfachste Struktur: Die Verteilung der Sterne nimmt vom Zentrum aus gleichmäßig ab.

Spiral Galaxien werden in Form einer Spirale dargestellt, einschließlich Spiralarmen. Dies ist der zahlreichste Galaxientyp, zu dem auch unsere Galaxie gehört – die Milchstraße.

Falsch Galaxien haben keine eindeutige Form; ihnen fehlt ein zentraler Kern.

Einige Galaxien zeichnen sich durch eine außergewöhnlich starke Radioemission aus, die die sichtbare Strahlung übersteigt. Das sind Radiogalaxien.

Reis. 4.2. Spiralgalaxie NGG 224 (Andromedanebel)

In der Struktur „normaler“ Galaxien kann man ganz einfach einen zentralen Kern und eine kugelförmige Peripherie unterscheiden, die entweder in Form riesiger Spiralzweige oder in Form einer elliptischen Scheibe dargestellt werden und die heißesten und hellsten Sterne und massiven Gaswolken umfassen .

Galaktische Kerne zeigen ihre Aktivität in unterschiedlicher Form: im kontinuierlichen Ausfluss von Materieströmen; in Emissionen von Gasklumpen und Gaswolken mit einer Masse von Millionen Sonnenmassen; in der nichtthermischen Radioemission aus der perinukleären Region.

Die ältesten Sterne, deren Alter nahe am Alter der Galaxie liegt, konzentrieren sich im Kern der Galaxie. In der galaktischen Scheibe befinden sich mittelalte und junge Sterne.

Sterne und Nebel innerhalb einer Galaxie bewegen sich auf recht komplexe Weise: Zusammen mit der Galaxie sind sie an der Expansion des Universums beteiligt; Darüber hinaus sind sie an der Rotation der Galaxie um ihre Achse beteiligt.

Sterne. Im gegenwärtigen Stadium der Entwicklung des Universums befindet sich die darin enthaltene Materie hauptsächlich in herausragend Zustand. 97 % der Materie in unserer Galaxie ist in Sternen konzentriert, bei denen es sich um riesige Plasmaformationen unterschiedlicher Größe, Temperatur und mit unterschiedlichen Bewegungseigenschaften handelt. Viele, wenn nicht die meisten anderen Galaxien haben „Sternmaterie“, die mehr als 99,9 % ihrer Masse ausmacht.

Das Alter von Sternen variiert in einem ziemlich breiten Wertebereich: von 15 Milliarden Jahren, was dem Alter des Universums entspricht, bis zu Hunderttausenden, dem jüngsten. Es gibt Sterne, die gerade entstehen und sich im protostellaren Stadium befinden, also Sie sind noch keine echten Stars geworden.

Von großer Bedeutung ist die Untersuchung der Beziehung zwischen Sternen und dem interstellaren Medium, einschließlich des Problems der kontinuierlichen Entstehung von Sternen aus kondensierender diffuser (gestreuter) Materie.

Die Geburt von Sternen erfolgt in Gasstaubnebeln unter dem Einfluss von Gravitations-, Magnet- und anderen Kräften, wodurch instabile Homogenitäten entstehen und diffuse Materie in eine Reihe von Kondensationen zerfällt. Bleiben solche Konzentrationen lange genug bestehen, verwandeln sie sich mit der Zeit in Sterne. Es ist wichtig zu beachten, dass es sich bei der Geburt nicht um einen einzelnen isolierten Stern handelt, sondern um Sternverbände. Die entstehenden Gaskörper werden voneinander angezogen, verbinden sich aber nicht unbedingt zu einem riesigen Körper. Typischerweise beginnen sie, sich relativ zueinander zu drehen, und die Zentrifugalkraft dieser Bewegung wirkt der Anziehungskraft entgegen, was zu einer weiteren Konzentration führt. Sterne entwickeln sich von Protosternen, riesigen Gasbällen mit schwachem Leuchten und niedriger Temperatur, zu Sternen – dichten Plasmakörpern mit Innentemperaturen von Millionen Grad. Dann beginnt der in der Kernphysik beschriebene Prozess der Kernumwandlungen. Die Hauptentwicklung der Materie im Universum fand und findet in den Tiefen der Sterne statt. Dort befindet sich der „Schmelztiegel“, der die chemische Entwicklung der Materie im Universum bestimmte.

In den Tiefen von Sternen, bei einer Temperatur in der Größenordnung von 10 Millionen Grad und einer sehr hohen Dichte befinden sich Atome in einem ionisierten Zustand: Elektronen sind fast vollständig oder vollständig von ihren Atomen getrennt. Die übrigen Kerne interagieren miteinander, wodurch Wasserstoff, der in den meisten Sternen reichlich vorhanden ist, unter Beteiligung von Kohlenstoff in Helium umgewandelt wird. Diese und ähnliche Kernumwandlungen sind die Quelle enormer Energiemengen, die durch die Sternstrahlung abtransportiert werden.

Die enorme Energie, die Sterne abgeben, entsteht durch nukleare Prozesse, die in ihrem Inneren ablaufen. Die gleichen Kräfte, die bei der Explosion einer Wasserstoffbombe freigesetzt werden, erzeugen im Stern Energie, die es ihm ermöglicht, über Millionen und Abermilliarden von Jahren Licht und Wärme auszusenden, indem Wasserstoff in schwerere Elemente, vor allem Helium, umgewandelt wird. Infolgedessen verwandeln sich Sterne im Endstadium der Evolution in träge („tote“) Sterne.

Sterne existieren nicht isoliert, sondern bilden Systeme. Die einfachsten Sternsysteme – die sogenannten Mehrfachsysteme – bestehen aus zwei, drei, vier, fünf oder mehr Sternen, die um einen gemeinsamen Schwerpunkt kreisen. Die Komponenten einiger Mehrfachsysteme sind von einer gemeinsamen Hülle aus diffuser Materie umgeben, deren Quelle offenbar die Sterne selbst sind, die sie in Form eines starken Gasstroms in den Weltraum ausstoßen.

Sterne werden auch zu noch größeren Gruppen zusammengefasst – Sternhaufen, die eine „verstreute“ oder „kugelförmige“ Struktur haben können. Offene Sternhaufen bestehen aus mehreren Hundert einzelnen Sternen, Kugelsternhaufen aus vielen Hundert oder Tausend. Und auch Assoziationen oder Sternhaufen sind nicht unveränderlich und ewig bestehen. Nach einer gewissen Zeit, schätzungsweise Millionen von Jahren, werden sie durch die Kräfte der galaktischen Rotation zerstreut.

Sonnensystem ist eine Gruppe von Himmelskörpern, die sich in Größe und physikalischer Struktur sehr unterscheiden. Zu dieser Gruppe gehören: die Sonne, neun große Planeten, Dutzende Planetensatelliten, Tausende kleiner Planeten (Asteroiden), Hunderte Kometen, unzählige Meteoritenkörper, die sich sowohl in Schwärmen als auch in Form einzelner Teilchen bewegen. Bis 1979 waren 34 Satelliten und 2000 Asteroiden bekannt. Alle diese Körper sind aufgrund der Gravitationskraft des Zentralkörpers – der Sonne – zu einem System vereint. Das Sonnensystem ist ein geordnetes System mit eigenen Strukturgesetzen. Die einheitliche Natur des Sonnensystems zeigt sich darin, dass alle Planeten in derselben Richtung und nahezu in derselben Ebene um die Sonne kreisen. Die meisten Satelliten der Planeten (ihre Monde) rotieren in die gleiche Richtung und in den meisten Fällen in der Äquatorialebene ihres Planeten. Die Sonne, die Planeten und die Satelliten der Planeten drehen sich um ihre Achsen in der gleichen Richtung, in der sie sich entlang ihrer Flugbahnen bewegen. Auch der Aufbau des Sonnensystems ist natürlich: Jeder nachfolgende Planet ist etwa doppelt so weit von der Sonne entfernt wie der vorherige. Unter Berücksichtigung der Gesetzmäßigkeiten der Struktur des Sonnensystems erscheint seine zufällige Entstehung unmöglich.

Auch über den Mechanismus der Planetenentstehung im Sonnensystem gibt es keine allgemein anerkannten Schlussfolgerungen. Wissenschaftlern zufolge entstand das Sonnensystem vor etwa 5 Milliarden Jahren und die Sonne ist ein Stern der zweiten (oder sogar späteren) Generation. So entstand das Sonnensystem aus den Produkten der Lebensaktivität von Sternen früherer Generationen, die sich in Gas- und Staubwolken ansammelten. Dieser Umstand gibt Anlass, das Sonnensystem als einen kleinen Teil des Sternenstaubs zu bezeichnen. Die Wissenschaft weiß weniger über den Ursprung des Sonnensystems und seine historische Entwicklung, als nötig ist, um eine Theorie der Planetenentstehung aufzustellen. Von den ersten wissenschaftlichen Hypothesen, die vor etwa 250 Jahren aufgestellt wurden, bis heute wurden zahlreiche verschiedene Modelle zur Entstehung und Entwicklung des Sonnensystems vorgeschlagen, aber keines davon wurde zu einer allgemein anerkannten Theorie erhoben . Die meisten der früher aufgestellten Hypothesen sind heute nur noch von historischem Interesse.

Die ersten Theorien über den Ursprung des Sonnensystems wurden von einem deutschen Philosophen aufgestellt I. Kantom und französischer Mathematiker P.S. Laplace. Ihre Theorien gelangten als eine Art kollektive kosmogonische Hypothese von Kant-Laplace in die Wissenschaft, obwohl sie unabhängig voneinander entwickelt wurden.

Nach dieser Hypothese entstand das Planetensystem um die Sonne als Ergebnis der Anziehungs- und Abstoßungskräfte zwischen Teilchen zerstreuter Materie (Nebel), die sich in Rotationsbewegung um die Sonne befanden.

Der Beginn der nächsten Stufe in der Entwicklung von Ansichten über die Entstehung des Sonnensystems war die Hypothese des englischen Physikers und Astrophysikers J. X . Jeans. Er vermutete, dass die Sonne einst mit einem anderen Stern kollidierte, wodurch ein Gasstrom herausgerissen wurde, der sich bei der Verdichtung in Planeten verwandelte. Angesichts der enormen Entfernung zwischen den Sternen erscheint eine solche Kollision jedoch völlig unglaublich. Eine detailliertere Analyse offenbarte weitere Mängel dieser Theorie.

Moderne Konzepte zur Entstehung der Planeten des Sonnensystems basieren auf der Tatsache, dass nicht nur mechanische, sondern auch andere, insbesondere elektromagnetische Kräfte berücksichtigt werden müssen. Diese Idee wurde von einem schwedischen Physiker und Astrophysiker vorgebracht X . Alpha Gift und englischer Astrophysiker F. Hoyle. Es gilt als wahrscheinlich, dass elektromagnetische Kräfte eine entscheidende Rolle bei der Entstehung des Sonnensystems spielten.

Nach modernen Vorstellungen bestand die ursprüngliche Gaswolke, aus der sowohl die Sonne als auch die Planeten entstanden, aus ionisiertem Gas, das dem Einfluss elektromagnetischer Kräfte ausgesetzt war. Nachdem die Sonne durch Konzentration aus einer riesigen Gaswolke entstanden war, blieben kleine Teile dieser Wolke in sehr großer Entfernung von ihr zurück. Die Gravitationskraft begann, das verbleibende Gas zum entstehenden Stern – der Sonne – anzuziehen, aber ihr Magnetfeld stoppte das fallende Gas in verschiedenen Entfernungen – genau dort, wo sich die Planeten befinden. Gravitations- und Magnetkräfte beeinflussten die Konzentration und Kondensation des fallenden Gases und in der Folge entstanden Planeten.

Als die größten Planeten entstanden, wiederholte sich der gleiche Vorgang in kleinerem Maßstab, wodurch Satellitensysteme entstanden. Theorien über den Ursprung des Sonnensystems sind hypothetischer Natur und es ist unmöglich, die Frage ihrer Zuverlässigkeit im gegenwärtigen Stadium der wissenschaftlichen Entwicklung eindeutig zu klären. Alle bestehenden Theorien weisen Widersprüche und Unklarheiten auf.

Fragen zur Selbstkontrolle

    Was ist das Wesentliche an einer systematischen Herangehensweise an die Struktur der Materie?

    Zeigen Sie die Beziehung zwischen der Mikro-, Makro- und Megawelt auf.

    Welche Vorstellungen über Materie und Feld als Arten von Materie würden es geben?

wurden im Rahmen der klassischen Physik entwickelt?

4. Was bedeutet der Begriff Quantum? Erzählen Sie uns von den wichtigsten Phasen bei der Entwicklung von Ideen über Quanten.

5. Was bedeutet das Konzept der „Welle-Teilchen-Dualität“? Welche

Ist N. Bohrs Komplementaritätsprinzip wichtig für die Beschreibung der physikalischen Realität der Mikrowelt?

6. Welchen Einfluss hatte die Quantenmechanik auf die moderne Genetik?

netiku? Was sind die Hauptprinzipien der Wellengenetik?

7. Was bedeutet das Konzept des „physikalischen Vakuums“? Welche Rolle spielt er dabei?

Evolution der Materie?

8. Heben Sie die wichtigsten Strukturebenen der Organisation der Materie hervor

Mikrokosmos und charakterisieren sie.

9. Bestimmen Sie die wichtigsten Strukturebenen der Organisation der Materie

in der Megawelt und gib ihnen Eigenschaften.

    Welche Modelle des Universums wurden in der modernen Kosmologie entwickelt?

    Beschreiben Sie die Hauptstadien der Entwicklung des Universums aus der Sicht der modernen Wissenschaft.

Literaturverzeichnis

    Weinberg S. Die ersten drei Minuten. Eine moderne Sicht auf den Ursprung des Universums. - M.: Nauka, 1981.

    Vladimirov Yu. S. Grundlegende Physik, Philosophie und Religion. - Kostroma: Verlag MITSAOST, 1996.

    Gernek F. Pioniere des Atomzeitalters. - M: Fortschritt, 1974.

    Dorfman Ya.G. Weltgeschichte der Physik vom Anfang des 19. Jahrhunderts bis zur Mitte des 20. Jahrhunderts. - M: Wissenschaft, 1979.

    Idlis G.M. Revolution in Astronomie, Physik und Kosmologie. - M.: Nauka, 1985.

    Kaira F. Tao der Physik. - St. Petersburg, 1994.

    Kirillin V.A. Seiten zur Geschichte der Wissenschaft und Technik. - M.: Nauka, 1986.

    Kudryavtsev P.S. Kurs zur Geschichte der Physik. - M.: Mir, 1974.

    Liozzi M. Geschichte der Physik. - M: Mir, 1972.

1 Q. Marion J.B. Physik und die physische Welt. - M.: Mir, 1975.

    Nalimov V.V. Am Rande des dritten Jahrtausends. - M.: Nauka, 1994.

    Shklovsky I.S. Sterne, ihre Geburt, ihr Leben und ihr Sterben. - M: Wissenschaft, 1977.

    Garyaev P.P. Wellengenom. - M.: Gemeinnützig, 1994.

    Shipov G.I. Theorie des physikalischen Vakuums. Neues Paradigma. - M.: NT-Center, 1993.

Physik der Mikrowelt

Strukturebenen der Materie in der Physik

(Bild einfügen)

Strukturebenen von Stoffen im Mikrokosmos

    Molekulare Ebene- Ebene der molekularen Struktur von Substanzen. Molekül – ein einziges quantenmechanisches System, das Atome vereint

    Atomare Ebene- Ebene der atomaren Struktur von Stoffen.

Atom – ein Strukturelement des Mikrokosmos, bestehend aus einem Kern und einer Elektronenhülle.

    Nukleonenebene- Ebene des Kerns und der Partikel seiner Bestandteile.

Nukleon – die allgemeine Bezeichnung für Proton und Neutron, die Bestandteile von Atomkernen sind.

    Quark-Level- Ebene der Elementarteilchen – Quarks und Leptonen

Atomare Struktur

Die Größe der Atome liegt in der Größenordnung von 10–10 m.

Die Größe der Atomkerne aller Elemente beträgt etwa 10–15 m, was zehntausende Male kleiner ist als die Größe der Atome

Der Kern eines Atoms ist positiv und die um den Kern rotierenden Elektronen tragen eine negative elektrische Ladung mit sich. Die positive Ladung des Kerns ist gleich der Summe der negativen Ladungen der Elektronen. Das Atom ist elektrisch neutral.

Rutherfords Planetenmodell des Atoms . (Bild einfügen)

Dargestellt sind die Kreisbahnen von vier Elektronen.

Elektronen in Umlaufbahnen werden durch elektrische Anziehungskräfte zwischen ihnen und dem Atomkern gehalten

Ein Elektron kann nicht im gleichen Energiezustand sein. In der Elektronenhülle sind die Elektronen schichtweise angeordnet. Jede Schale enthält eine bestimmte Menge: in der ersten kernnächsten Schicht - 2, in der zweiten - 8, in der dritten - 18, in der vierten - 32 usw. Nach der zweiten Schicht werden die Elektronenbahnen in Unterschichten berechnet .

Energieniveaus des Atoms und eine konventionelle Darstellung der Prozesse der Absorption und Emission von Photonen (siehe Bild)

Beim Übergang von einem niedrigen Energieniveau zu einem höheren Energieniveau absorbiert ein Atom Energie (Energiequantum), die der Energiedifferenz zwischen den Übergängen entspricht. Ein Atom gibt ein Energiequantum ab, wenn ein Elektron im Atom von einem höheren Energieniveau auf ein niedrigeres übergeht (abrupt).

Allgemeine Klassifizierung von Elementarteilchen

Elementarteilchen- Dies sind unzersetzbare Teilchen, deren innere Struktur keine Kombination anderer freier Teilchen ist, sie sind keine Atome oder Atomkerne, mit Ausnahme des Protons

Einstufung

    Photonen

    Elektronen

  • Baryonen

Neutron

Grundlegende Eigenschaften von Elementarteilchen

Gewicht

    Leptonen (leicht)

    Mesonen (mittel)

    Baryonen (schwer)

Lebensdauer

    stabil

    Quasistabil (Zerfall unter schwachen und elektromagnetischen Wechselwirkungen)

    Resonanzen (instabile kurzlebige Teilchen, die aufgrund starker Wechselwirkungen zerfallen)

Interaktionen im Mikrokosmos

    Starke Interaktion sorgt für starke Kopplung und Neutronen in den Atomkernen, Quarks in Nukleonen

    Elektromagnetische Wechselwirkung stellt die Verbindung zwischen Elektronen und Kernen, Atomen in Molekülen her

    Schwache Interaktion sorgt für einen Übergang zwischen verschiedenen Arten von Quarks, bestimmt insbesondere den Zerfall von Neutronen und verursacht gegenseitige Übergänge zwischen verschiedenen Arten von Leptonen

    Gravitationswechselwirkung im Mikrokosmos in einem Abstand von 10 -13 cm nicht zu vernachlässigen sind, jedoch beginnen sich bei Abständen in der Größenordnung von 10 -33 cm die besonderen Eigenschaften des physikalischen Vakuums zu zeigen – virtuelle superschwere Teilchen umgeben sich mit einem Gravitationsfeld, das die Geometrie verzerrt Raum

Eigenschaften der Wechselwirkung von Elementarteilchen

Interaktionstyp

Relative Intensität

Reichweite cm

Teilchen, zwischen denen Wechselwirkung auftritt

Teilchen sind Träger der Wechselwirkung

Name

Masse GeV

Stark

Hadronen (Neutronen, Protonen, Mesonen)

Gluonen

Elektromagnetisch

Alle elektrisch geladenen Körper und Teilchen

Photon

Schwach

Alle Elementarteilchen außer Photonen

Vektorobozone W + , W - , Z 0

Gravitation

Alle Teilchen

Gravitonen (hypothetisch Teilchen)

Strukturelle Organisationsebenen der Materie (Feld)

Feld

    Gravitation (Quanten – Gravitonen)

    Elektromagnetisch (Quanten – Photonen)

    Kern (Quanten – Mesonen)

    Elektronisch positiv (Quanten – Elektronen, Positronen)

Strukturebenen der Materieorganisation (Materie und Feld)

Materie und Feld sind unterschiedlich

    Durch Ruhemasse

    Entsprechend den Bewegungsmustern

    Nach Grad der Durchlässigkeit

    Je nach Konzentrationsgrad von Masse und Energie

    Als Teilchen- und Welleneinheiten

Allgemeine Schlussfolgerung : Der Unterschied zwischen Stoffen und Feldern charakterisiert die reale Welt in makroskopischer Näherung korrekt. Dieser Unterschied ist nicht absolut, und wenn man sich Mikroobjekten zuwendet, wird seine Relativität deutlich deutlich. Im Mikrokosmos fungieren die Konzepte „Teilchen“ (Materie) und „Wellen“ (Felder) als zusätzliche Merkmale, die die innere Widersprüchlichkeit des Wesens von Mikroobjekten zum Ausdruck bringen.

Quarks sind Bestandteile von Elementarteilchen

Alle Quarks haben eine gebrochene elektrische Ladung. Quarks werden charakterisiert Fremdartigkeit, Charme und Schönheit.

Die Baryonenladung aller Quarks beträgt 1/3, die der entsprechenden Antiquarks 1/3. Jedes Quark hat drei Zustände, diese Zustände werden Farbzustände genannt: R – Rot, G – Grün und B – Blau

Das Senden Ihrer guten Arbeit an die Wissensdatenbank ist ganz einfach. Nutzen Sie das untenstehende Formular

Studierende, Doktoranden und junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

Gepostet auf http://www.allbest.ru/

Prüfung

Mikrowelt: Konzepte der modernen Physik

Einführung

Die Mikrowelt ist die Welt extrem kleiner, nicht direkt beobachtbarer Mikroobjekte. (Räumliche Dimension, die von 10-8 bis 10-16 cm berechnet wird, und Lebensdauer - von unendlich bis 10-24 s.)

Die Quantenmechanik (Wellenmechanik) ist eine Theorie, die eine Beschreibungsmethode und Bewegungsgesetze auf der Mikroebene festlegt.

Die Untersuchung von Mikroweltphänomenen führte zu Ergebnissen, die stark von den allgemein akzeptierten Ergebnissen der klassischen Physik und sogar der Relativitätstheorie abwichen. Die klassische Physik sah ihr Ziel darin, im Raum existierende Objekte zu beschreiben und die Gesetze zu formulieren, die ihre zeitlichen Veränderungen regeln. Aber für solche Phänomene wie radioaktiver Zerfall, Beugung, Emission von Spektrallinien kann man nur behaupten, dass eine gewisse Wahrscheinlichkeit dafür besteht, dass ein einzelnes Objekt so ist und diese oder jene Eigenschaft hat. In der Quantenmechanik gibt es keinen Platz für Gesetze, die Veränderungen an einem einzelnen Objekt im Laufe der Zeit regeln.

Charakteristisch für die klassische Mechanik ist die Beschreibung von Teilchen durch Angabe ihrer Position und Geschwindigkeit sowie der Abhängigkeit dieser Größen von der Zeit. In der Quantenmechanik können sich identische Teilchen unter identischen Bedingungen unterschiedlich verhalten.

1. Mikrowelt: Konzepte der modernen Physik, die die Mikrowelt beschreiben

Als man sich der Erforschung der Mikrowelt zuwandte, stellte man fest, dass die physische Realität einheitlich ist und es keine Lücke zwischen Materie und Feld gibt.

Bei der Untersuchung von Mikropartikeln standen Wissenschaftler aus Sicht der klassischen Wissenschaft vor einer paradoxen Situation: Dieselben Objekte zeigten sowohl Wellen- als auch Korpuskulareigenschaften.

Den ersten Schritt in diese Richtung machte der deutsche Physiker M. Planck. Bekanntlich Ende des 19. Jahrhunderts. In der Physik trat eine Schwierigkeit auf, die als „Ultraviolettkatastrophe“ bezeichnet wurde. Nach Berechnungen nach der Formel der klassischen Elektrodynamik hätte die Intensität der Wärmestrahlung eines vollständig schwarzen Körpers unbegrenzt zunehmen müssen, was eindeutig der Erfahrung widersprach. Bei der Erforschung der Wärmestrahlung, die M. Planck als die schwierigste seines Lebens bezeichnete, kam er zu der verblüffenden Schlussfolgerung, dass bei Strahlungsprozessen Energie nicht kontinuierlich und nicht in beliebigen Mengen, sondern nur in bestimmten unteilbaren Mengen abgegeben oder absorbiert werden kann . Portionen - Quanten. Die Energie von Quanten wird durch die Anzahl der Schwingungen der entsprechenden Strahlungsart und die universelle Naturkonstante bestimmt, die M. Planck unter dem Symbol h in die Wissenschaft eingeführt hat: E = h y.

War mit der Einführung des Quantums noch keine wirkliche Quantentheorie entstanden, wie M. Planck immer wieder betonte, so wurde am 14. Dezember 1900, dem Tag der Veröffentlichung der Formel, ihr Grundstein gelegt. Daher gilt dieser Tag in der Geschichte der Physik als Geburtstag der Quantenphysik. Und da das Konzept eines elementaren Wirkungsquantums später als Grundlage für das Verständnis aller Eigenschaften der Atomhülle und des Atomkerns diente, sollte der 14. Dezember 1900 sowohl als Geburtstag der gesamten Atomphysik als auch als Beginn einer neuen Ära gelten der Naturwissenschaft.

Der erste Physiker, der die Entdeckung des elementaren Wirkungsquantums begeistert aufnahm und kreativ entwickelte, war A. Einstein. 1905 übertrug er die geniale Idee der quantisierten Absorption und Abgabe von Energie bei der Wärmestrahlung auf die Strahlung im Allgemeinen und begründete damit die neue Lichtlehre.

Die Vorstellung von Licht als einem Strom sich schnell bewegender Quanten war äußerst kühn, fast gewagt, und nur wenige glaubten zunächst an ihre Richtigkeit. Erstens war M. Planck selbst mit der Erweiterung der Quantenhypothese auf die Quantentheorie des Lichts nicht einverstanden und bezog sich in seiner Quantenformel nur auf die von ihm betrachteten Gesetze der Wärmestrahlung eines schwarzen Körpers.

A. Einstein schlug vor, dass es sich um ein Naturgesetz universeller Natur handelt. Ohne auf die vorherrschenden Ansichten in der Optik zurückzublicken, wandte er Plancks Hypothese auf das Licht an und kam zu dem Schluss, dass die korpuskuläre Struktur des Lichts erkannt werden sollte.

Die Quantentheorie des Lichts oder Einsteins Photonentheorie A argumentierte, dass Licht ein Wellenphänomen ist, das sich ständig im Raum ausbreitet. Gleichzeitig ist die Lichtenergie, um physikalisch wirksam zu sein, nur an bestimmten Stellen konzentriert, sodass das Licht eine diskontinuierliche Struktur aufweist. Licht kann als Strom unteilbarer Energiekörner, Lichtquanten oder Photonen betrachtet werden. Ihre Energie wird durch das Elementarquantum der Planck-Wirkung und die entsprechende Anzahl an Schwingungen bestimmt. Licht unterschiedlicher Farbe besteht aus Lichtquanten unterschiedlicher Energie.

Einsteins Idee der Lichtquanten half, das Phänomen des photoelektrischen Effekts zu verstehen und zu visualisieren, dessen Kern darin besteht, Elektronen aus einer Substanz unter dem Einfluss elektromagnetischer Wellen herauszuschlagen. Experimente haben gezeigt, dass das Vorhandensein oder Fehlen eines photoelektrischen Effekts nicht von der Intensität der einfallenden Welle, sondern von ihrer Frequenz abhängt. Geht man davon aus, dass jedes Elektron von einem Photon ausgestoßen wird, dann wird deutlich: Der Effekt tritt nur dann ein, wenn die Energie des Photons und damit seine Frequenz hoch genug ist, um die Bindungskräfte zwischen Elektron und Materie zu überwinden.

Die Richtigkeit dieser Interpretation des photoelektrischen Effekts (für diese Arbeit erhielt Einstein 1922 den Nobelpreis für Physik) wurde 10 Jahre später in den Experimenten des amerikanischen Physikers R.E. bestätigt. Milliken. 1923 vom amerikanischen Physiker A.H. entdeckt Compton, das Phänomen (Compton-Effekt), das beobachtet wird, wenn Atome mit freien Elektronen sehr harter Röntgenstrahlung ausgesetzt werden, bestätigte erneut und endgültig die Quantentheorie des Lichts. Diese Theorie ist eine der experimentellsten bestätigten physikalischen Theorien. Die Wellennatur des Lichts war jedoch bereits durch Experimente zur Interferenz und Beugung eindeutig nachgewiesen.

Es entstand eine paradoxe Situation: Man entdeckte, dass sich Licht nicht nur wie eine Welle, sondern auch wie ein Fluss von Teilchen verhält. In Beugungs- und Interferenzexperimenten werden seine Welleneigenschaften und im photoelektrischen Effekt seine korpuskularen Eigenschaften offenbart. In diesem Fall stellte sich heraus, dass es sich bei dem Photon um ein ganz besonderes Korpuskel handelte. Das Hauptmerkmal seiner Diskretion – sein inhärenter Energieanteil – wurde durch eine reine Wellencharakteristik – die Frequenz y (E = Nu) – berechnet.

Wie alle großen naturwissenschaftlichen Entdeckungen hatte die neue Lichtlehre grundlegende theoretische und erkenntnistheoretische Bedeutung. Die alte Position über die Kontinuität natürlicher Prozesse, die von M. Planck gründlich erschüttert wurde, wurde von Einstein aus dem viel größeren Bereich der physikalischen Phänomene ausgeschlossen.

Der französische Physiker Louis de Broche entwickelte die Ideen von M. Planck und A. Einstein weiter und stellte 1924 die Idee der Welleneigenschaften der Materie vor. In seinem Werk „Licht und Materie“ schrieb er über die Notwendigkeit, Wellen- und Korpuskularkonzepte nicht nur in Übereinstimmung mit den Lehren von A. Einstein in der Lichttheorie, sondern auch in der Materietheorie zu verwenden.

L. de Broglie argumentierte, dass Welleneigenschaften neben korpuskulären Eigenschaften allen Arten von Materie innewohnen: Elektronen, Protonen, Atomen, Molekülen und sogar makroskopischen Körpern.

Nach de Broglie entspricht jeder Körper mit der Masse m, der sich mit der Geschwindigkeit V bewegt, einer Welle:

Tatsächlich war eine ähnliche Formel früher bekannt, jedoch nur in Bezug auf Lichtquanten – Photonen.

Mikrokosmos Quantenmechanik Genetik Physik

2. Ansichten von M. Planck, Louis De Broglie, E. Schrödinger, W. Heisenberg, N. Bohr und anderen zur Natur der Mikrowelt

Im Jahr 1926 fand der österreichische Physiker E. Schrödinger eine mathematische Gleichung, die das Verhalten von Materiewellen bestimmt, die sogenannte Schrödinger-Gleichung. Der englische Physiker P. Dirac hat es verallgemeinert.

Der kühne Gedanke von L. de Broglie über den universellen „Dualismus“ von Teilchen und Wellen ermöglichte die Konstruktion einer Theorie, mit deren Hilfe es möglich war, die Eigenschaften von Materie und Licht in ihrer Einheit zu erfassen. In diesem Fall wurden Lichtquanten zu einem besonderen Moment der Gesamtstruktur des Mikrokosmos.

Materiewellen, die zunächst als visuell reale Wellenprozesse ähnlich akustischen Wellen dargestellt wurden, bekamen ein abstraktes mathematisches Erscheinungsbild und erhielten dank des deutschen Physikers M. Born als „Wahrscheinlichkeitswellen“ eine symbolische Bedeutung.

Allerdings bedurfte die Hypothese von de Broglie einer experimentellen Bestätigung. Der überzeugendste Beweis für die Existenz von Welleneigenschaften der Materie war die Entdeckung der Elektronenbeugung im Jahr 1927 durch die amerikanischen Physiker K. Davisson und L. Germer. Anschließend wurden Experimente durchgeführt, um die Beugung von Neutronen, Atomen und sogar Molekülen nachzuweisen. In allen Fällen bestätigten die Ergebnisse die Hypothese von de Broglie vollständig. Noch wichtiger war die Entdeckung neuer Elementarteilchen, die auf der Grundlage eines Formelsystems der entwickelten Wellenmechanik vorhergesagt wurde.

Die Anerkennung des Welle-Teilchen-Dualismus in der modernen Physik ist allgemein geworden. Jedes materielle Objekt zeichnet sich durch das Vorhandensein sowohl von Korpuskular- als auch von Welleneigenschaften aus.

Die Tatsache, dass dasselbe Objekt sowohl als Teilchen als auch als Welle erscheint, zerstörte traditionelle Vorstellungen.

Die Form eines Teilchens impliziert eine Entität, die in einem kleinen Volumen oder einem endlichen Raumbereich enthalten ist, während sich eine Welle über weite Raumbereiche ausbreitet. In der Quantenphysik schließen sich diese beiden Realitätsbeschreibungen gegenseitig aus, sind aber gleichermaßen notwendig, um die betreffenden Phänomene vollständig zu beschreiben.

Die endgültige Bildung der Quantenmechanik als konsistente Theorie erfolgte dank der Arbeit des deutschen Physikers W. Heisenberg, der das Unschärfeprinzip begründete? und der dänische Physiker N. Bohr, der das Komplementaritätsprinzip formulierte, auf dessen Grundlage das Verhalten von Mikroobjekten beschrieben wird.

Der Kern der Unschärferelation von W. Heisenberg ist wie folgt. Nehmen wir an, die Aufgabe besteht darin, den Zustand eines sich bewegenden Teilchens zu bestimmen. Wenn es möglich wäre, die Gesetze der klassischen Mechanik anzuwenden, wäre die Situation einfach: Man müsste nur die Koordinaten des Teilchens und seinen Impuls (Bewegungsgröße) bestimmen. Die Gesetze der klassischen Mechanik lassen sich jedoch nicht auf Mikropartikel anwenden: Es ist nicht nur praktisch, sondern auch allgemein unmöglich, Ort und Größe der Bewegung eines Mikropartikels mit gleicher Genauigkeit zu bestimmen. Nur eine dieser beiden Eigenschaften kann genau bestimmt werden. In seinem Buch „Physik des Atomkerns“ enthüllt W. Heisenberg den Inhalt der Unschärferelation. Er schreibt, dass es nie möglich sei, beide Parameter – Position und Geschwindigkeit – gleichzeitig genau zu kennen. Man kann nie gleichzeitig wissen, wo sich ein Teilchen befindet und wie schnell und in welche Richtung es sich bewegt. Führt man ein Experiment durch, das genau zeigt, wo sich das Teilchen zu einem bestimmten Zeitpunkt befindet, wird die Bewegung so stark gestört, dass das Teilchen danach nicht mehr gefunden werden kann. Umgekehrt ist es mit einer genauen Geschwindigkeitsmessung unmöglich, den Ort des Teilchens zu bestimmen.

Aus Sicht der klassischen Mechanik erscheint die Unschärferelation absurd. Um die aktuelle Situation besser einschätzen zu können, müssen wir bedenken, dass wir Menschen in der Makrowelt leben und grundsätzlich kein visuelles Modell aufbauen können, das der Mikrowelt angemessen wäre. Die Unschärferelation ist Ausdruck der Unmöglichkeit, die Mikrowelt zu beobachten, ohne sie zu stören. Jeder Versuch, ein klares Bild mikrophysikalischer Prozesse zu liefern, muss sich entweder auf eine Korpuskular- oder Welleninterpretation stützen. Bei der korpuskulären Beschreibung wird die Messung durchgeführt, um einen genauen Wert der Energie und Größe der Bewegung eines Mikropartikels beispielsweise während der Elektronenstreuung zu erhalten. Bei Experimenten zur genauen Ortsbestimmung hingegen wird die Wellenerklärung genutzt, insbesondere beim Durchgang von Elektronen durch dünne Platten oder bei der Beobachtung der Ablenkung von Strahlen.

Die Existenz eines elementaren Wirkungsquantums stellt ein Hindernis dar, gleichzeitig und mit gleicher Genauigkeit Größen zu ermitteln, die „kanonisch zusammenhängen“, d. h. Position und Größe der Teilchenbewegung.

Das Grundprinzip der Quantenmechanik ist neben der Unschärferelation das Komplementaritätsprinzip, das N. Bohr wie folgt formulierte: „Die Konzepte von Teilchen und Wellen ergänzen einander und widersprechen sich gleichzeitig, das sind sie.“ ergänzende Bilder des Geschehens“1.

Die Widersprüche in den Teilchenwelleneigenschaften von Mikroobjekten sind das Ergebnis der unkontrollierten Interaktion von Mikroobjekten und Makrogeräten. Es gibt zwei Klassen von Geräten: In manchen verhalten sich Quantenobjekte wie Wellen, in anderen wie Teilchen. In Experimenten beobachten wir nicht die Realität als solche, sondern nur ein Quantenphänomen, einschließlich des Ergebnisses der Interaktion eines Geräts mit einem Mikroobjekt. M. Born bemerkte im übertragenen Sinne, dass Wellen und Teilchen „Projektionen“ der physikalischen Realität auf die experimentelle Situation seien.

Ein Wissenschaftler, der die Mikrowelt untersucht, wird somit vom Beobachter zum Akteur, da die physische Realität vom Gerät abhängt, d. h. letztlich aus der Willkür des Betrachters. Daher glaubte N. Bohr, dass ein Physiker die Realität selbst nicht kennt, sondern nur seinen eigenen Kontakt mit ihr.

Ein wesentliches Merkmal der Quantenmechanik ist der probabilistische Charakter von Vorhersagen über das Verhalten von Mikroobjekten, der mithilfe der E. Schrödinger-Wellenfunktion beschrieben wird. Die Wellenfunktion bestimmt mit unterschiedlicher Wahrscheinlichkeit die Parameter des zukünftigen Zustands eines Mikroobjekts. Dies bedeutet, dass bei der Durchführung derselben Experimente mit denselben Objekten jedes Mal unterschiedliche Ergebnisse erzielt werden. Einige Werte werden jedoch wahrscheinlicher sein als andere, z. B. Es wird nur die Wahrscheinlichkeitsverteilung der Werte bekannt sein.

Unter Berücksichtigung der Faktoren Unsicherheit, Komplementarität und Wahrscheinlichkeit gab N. Bohr die sogenannte „Kopenhagener“ Interpretation des Wesens der Quantentheorie: „Früher war es allgemein anerkannt, dass die Physik das Universum beschreibt.“ Wir wissen jetzt, dass die Physik nur das beschreibt, was wir über das Universum sagen können.“1

Die Position von N. Bohr wurde von W. Heisenberg, M. Born, W. Pauli und einer Reihe anderer weniger bekannter Physiker geteilt. Befürworter der Kopenhagener Interpretation der Quantenmechanik erkannten weder Kausalität noch Determinismus in der Mikrowelt an und glaubten, dass die Grundlage der physikalischen Realität eine grundlegende Unsicherheit sei – der Indeterminismus.

Vertreter der Kopenhagener Schule lehnten G.A. scharf ab. Lorentz, M. Planck, M. Laue, A. Einstein, P. Langevin und andere. A. Einstein schrieb darüber an M. Born: „In unseren wissenschaftlichen Ansichten haben wir uns zu Antipoden entwickelt. Sie glauben an einen Gott, der würfelt, und ich glaube an die völlige Gesetzmäßigkeit der objektiven Existenz ... Wovon ich fest überzeugt bin, ist, dass sie sich am Ende auf eine Theorie einigen werden, in der nicht Wahrscheinlichkeiten, sondern Fakten selbstverständlich sind verbunden.“ 2. Er wandte sich gegen das Prinzip der Unsicherheit, für den Determinismus und gegen die Rolle, die dem Akt der Beobachtung in der Quantenmechanik zugeschrieben wird. Die weitere Entwicklung der Physik zeigte, dass Einstein Recht hatte, der glaubte, dass die Quantentheorie in ihrer bestehenden Form einfach unvollständig sei: Die Tatsache, dass Physiker die Unsicherheit noch nicht loswerden können, weist nicht auf die Grenzen der wissenschaftlichen Methode hin, wie N. Bohr argumentierte. sondern nur die Unvollständigkeit der Quantenmechanik. Einstein lieferte immer neue Argumente, um seinen Standpunkt zu stützen.

Am bekanntesten ist das sogenannte Einstein-Podolsky-Rosen-Paradoxon oder EPR-Paradoxon, mit dessen Hilfe man die Unvollständigkeit der Quantenmechanik beweisen wollte. Das Paradoxon ist ein Gedankenexperiment: Was würde passieren, wenn ein Teilchen, das aus zwei Protonen besteht, so zerfällt, dass die Protonen in entgegengesetzte Richtungen auseinanderfliegen? Aufgrund ihres gemeinsamen Ursprungs sind ihre Eigenschaften verwandt oder korrelieren, wie Physiker sagen, miteinander. Nach dem Impulserhaltungssatz gilt: Wenn ein Proton nach oben fliegt, muss das zweite nach unten fliegen. Nachdem wir den Impuls eines Protons gemessen haben, wissen wir mit Sicherheit den Impuls des anderen Protons, selbst wenn es ans andere Ende des Universums geflogen ist. Es gibt eine nicht-lokale Verbindung zwischen Teilchen, die Einstein „die Wirkung von Geistern aus der Ferne“ nannte, bei der jedes Teilchen zu jedem Zeitpunkt weiß, wo sich das andere befindet und was mit ihm geschieht.

Das EPR-Paradoxon ist mit der in der Quantenmechanik postulierten Unsicherheit nicht vereinbar. Einstein glaubte, dass es einige versteckte Parameter gab, die nicht berücksichtigt wurden. Fragen: Existieren Determinismus und Kausalität in der Mikrowelt? Ist die Quantenmechanik vollständig? Ob es versteckte Parameter gibt, die nicht berücksichtigt werden, ist seit mehr als einem halben Jahrhundert Gegenstand der Debatte unter Physikern und fand erst Ende des 20. Jahrhunderts eine Lösung auf theoretischer Ebene.

Im Jahr 1964 J.S. Bela argumentierte, dass die Quantenmechanik eine stärkere Korrelation zwischen miteinander verbundenen Teilchen vorhersagt, als Einstein vorhergesagt hatte.

Bells Theorem besagt, dass, wenn ein objektives Universum existiert und die Gleichungen der Quantenmechanik diesem Universum strukturell ähnlich sind, eine Art nichtlokale Verbindung zwischen zwei Teilchen besteht, die jemals in Kontakt kommen. Der Kern des Bell-Theorems besteht darin, dass es keine isolierten Systeme gibt: Jedes Teilchen des Universums steht in „augenblicklicher“ Kommunikation mit allen anderen Teilchen. Das gesamte System funktioniert wie ein einziges System, auch wenn seine Teile durch große Entfernungen voneinander getrennt sind und zwischen ihnen keine Signale, Felder, mechanischen Kräfte, Energie usw. vorhanden sind.

Mitte der 1980er Jahre testete A. Aspect (Universität Paris) diesen Zusammenhang experimentell, indem er die Polarisation von Photonenpaaren untersuchte, die von einer einzelnen Quelle in Richtung isolierter Detektoren emittiert wurden. Beim Vergleich der Ergebnisse der beiden Messreihen wurde eine Übereinstimmung zwischen ihnen festgestellt. Aus der Sicht des berühmten Physikers D. Bohm bestätigten die Experimente von A. Aspect den Satz von Bell und untermauerten die Position nichtlokaler verborgener Variablen, deren Existenz A. Einstein annahm. In D. Bohms Interpretation der Quantenmechanik gibt es keine Unsicherheit in den Koordinaten des Teilchens und seinem Impuls.

Wissenschaftler haben vorgeschlagen, dass Kommunikation durch die Übertragung von Informationen erfolgt, deren Träger Spezialgebiete sind.

3. Wellengenetik

Die in der Quantenmechanik gemachten Entdeckungen hatten fruchtbare Auswirkungen nicht nur auf die Entwicklung der Physik, sondern auch auf andere Bereiche der Naturwissenschaften, vor allem auf die Biologie, in der das Konzept der Wellen- oder Quantengenetik entwickelt wurde.

Als J. Watson, A. Wilson und F. Crick 1962 den Nobelpreis für die Entdeckung der Doppelhelix der DNA, die Erbinformationen trägt, erhielten, schien es den Genetikern, dass die Hauptprobleme der Übertragung genetischer Informationen kurz vor der Lösung standen . Alle Informationen werden in Genen gespeichert, deren Kombination in Zellchromosomen das Entwicklungsprogramm des Organismus bestimmt. Die Aufgabe bestand darin, den genetischen Code, also die gesamte Nukleotidsequenz der DNA, zu entschlüsseln.

Die Realität entsprach jedoch nicht den Erwartungen der Wissenschaftler. Nach der Entdeckung der Struktur der DNA und einer detaillierten Betrachtung der Beteiligung dieses Moleküls an genetischen Prozessen blieb das Hauptproblem des Phänomens Leben – die Mechanismen seiner Reproduktion – im Wesentlichen ungelöst. Durch die Entschlüsselung des genetischen Codes konnte die Synthese von Proteinen erklärt werden. Die klassischen Genetiker gingen davon aus, dass genetische Moleküle, die DNA, materieller Natur sind und wie eine Substanz funktionieren, die eine materielle Matrix darstellt, auf der ein materieller genetischer Code geschrieben ist. Dementsprechend entwickelt sich ein fleischlicher, materieller und materieller Organismus. Doch die Frage, wie die raumzeitliche Struktur eines Organismus in Chromosomen kodiert ist, lässt sich nicht auf der Grundlage der Kenntnis der Nukleotidsequenz klären. Sowjetische Wissenschaftler A.A. Lyubishchev und A.G. Gurvich vertrat bereits in den 20er und 30er Jahren die Auffassung, dass die Betrachtung von Genen als rein materielle Strukturen für eine theoretische Beschreibung des Phänomens Leben eindeutig unzureichend sei.

A.A. Lyubishchev schrieb in seinem 1925 veröffentlichten Werk „On the Nature of Hereditary Factors“, dass Gene weder Teile eines Chromosoms noch Moleküle autokatalytischer Enzyme, noch Radikale oder eine physikalische Struktur seien. Er glaubte, dass das Gen als potenzielle Substanz erkannt werden sollte. Ein besseres Verständnis der Ideen von A.A. Lyubishchev vertritt die Analogie eines genetischen Moleküls mit der Notenschrift. Die Musiknotation selbst ist materiell und stellt Symbole auf Papier dar, aber diese Symbole werden nicht in materieller Form realisiert, sondern in Klängen, die akustische Wellen sind.

Bei der Entwicklung dieser Ideen hat A.G. Gurvich argumentierte, dass es in der Genetik „notwendig ist, das Konzept eines biologischen Feldes einzuführen, dessen Eigenschaften formal physikalischen Konzepten entlehnt sind“1. Die Grundidee von A.G. Gurvich vertrat die Auffassung, dass die Entwicklung des Embryos nach einem vorher festgelegten Programm erfolgt und die Formen annimmt, die in seinem Bereich bereits existieren. Er war der erste, der das Verhalten der Bestandteile eines sich entwickelnden Organismus als Ganzes auf der Grundlage von Feldkonzepten erklärte. In diesem Feld sind die Formen enthalten, die der Embryo während seiner Entwicklung annimmt. Gurvich nannte die virtuelle Form, die zu jedem Zeitpunkt das Ergebnis des Entwicklungsprozesses bestimmt, eine dynamisch präformierte Form und führte damit ein Element der Teleologie in die ursprüngliche Formulierung des Fachgebiets ein. Nachdem er die Theorie des Zellfeldes entwickelt hatte, erweiterte er die Idee des Feldes als ein Prinzip, das den embryonalen Prozess reguliert und koordiniert, auch auf die Funktionsweise von Organismen. Nachdem Gurvich die allgemeine Idee des Fachgebiets begründet hatte, formulierte er sie als universelles Prinzip der Biologie. Er entdeckte die biophotonische Strahlung von Zellen.

Ideen der russischen Biologen A.A. Lyubishchev und A.G. Gurvich sind eine gigantische intellektuelle Leistung, die ihrer Zeit voraus ist. Die Essenz ihrer Gedanken ist in der Triade enthalten:

Gene sind dualistisch – sie sind Substanz und Feld zugleich.

Die Feldelemente der Chromosomen markieren den Raum – die Zeit des Organismus – und steuern dadurch die Entwicklung von Biosystemen.

Gene haben ästhetisch-phantasievolle und sprachregulierende Funktionen.

Diese Ideen blieben bis zum Erscheinen der Werke von V.P. unterschätzt. Kaznacheev in den 60er Jahren des 20. Jahrhunderts, in dem die Vorhersagen von Wissenschaftlern über das Vorhandensein von Feldformen der Informationsübertragung in lebenden Organismen experimentell bestätigt wurden. Die wissenschaftliche Richtung in der Biologie, vertreten durch die Schule von V.P. Kaznacheev entstand als Ergebnis zahlreicher grundlegender Studien zum sogenannten spiegelzytopathischen Effekt, der sich darin ausdrückt, dass lebende Zellen, die durch Quarzglas getrennt sind, das kein einziges Substanzmolekül durchlässt, dennoch Informationen austauschen. Nach der Arbeit von V.P. Kaznacheev bestand kein Zweifel mehr an der Existenz eines Zeichenwellenkanals zwischen den Zellen von Biosystemen.

Gleichzeitig mit den Experimenten von V.P. Kaznacheev führte der chinesische Forscher Jiang Kanzhen eine Reihe supergenetischer Experimente durch, die die Weitsicht von A.L. widerspiegelten. Lyubishchev und A.G. Gurvich. Der Unterschied zwischen Jiang Kanzhens Arbeit besteht darin, dass er Experimente nicht auf zellulärer Ebene, sondern auf der Ebene des Organismus durchführte. Er ging davon aus, dass DNA – genetisches Material – in zwei Formen existiert: passiv (in Form von DNA) und aktiv (in Form eines elektromagnetischen Feldes). Die erste Form bewahrt den genetischen Code und sorgt für die Stabilität des Körpers, während die zweite Form ihn durch Beeinflussung mit bioelektrischen Signalen verändern kann. Ein chinesischer Wissenschaftler entwarf Geräte, die in der Lage waren, supergenetische Wellensignale von einem Spenderbiosystem zu lesen, über eine Distanz zu übertragen und in einen Akzeptororganismus einzuleiten. Infolgedessen entwickelte er unvorstellbare Hybriden, die von der offiziellen Genetik „verboten“ wurden und nur auf echten Genen basieren. So entstanden tierische und pflanzliche Chimären: Hühner-Enten; Mais, aus dessen Kolben Weizenähren wuchsen usw.

Der herausragende Experimentator Jiang Kanzheng verstand intuitiv einige Aspekte der von ihm tatsächlich geschaffenen experimentellen Wellengenetik und glaubte, dass die Träger der feldgenetischen Informationen die in seiner Ausrüstung verwendete ultrahochfrequente elektromagnetische Strahlung seien, konnte jedoch keine theoretische Begründung liefern.

Nach der experimentellen Arbeit von V.P. Kaznacheev und Jiang Kanzhen, die nicht mit der traditionellen Genetik erklärt werden konnten, bestand ein dringender Bedarf an der theoretischen Entwicklung des Wellengenommodells, im physikalischen, mathematischen und theoretischen biologischen Verständnis der Arbeit des DNA-Chromosoms auf diesem Gebiet und Materialabmessungen.

Die ersten Versuche, dieses Problem zu lösen, wurden von den russischen Wissenschaftlern P.P. unternommen. Garyaev, A.A. Berezin und A.A. Vasiliev, der folgende Aufgaben stellte:

die Möglichkeit einer dualistischen Interpretation der Arbeit des Zellgenoms auf den Ebenen Materie und Feld im Rahmen physikalischer und mathematischer Modelle aufzeigen;

Zeigen Sie die Möglichkeit normaler und „anomaler“ Betriebsmodi des Zellgenoms mithilfe von Phantomwellen-Bildzeichenmatrizen auf.

* Finden Sie experimentelle Beweise für die Richtigkeit der vorgeschlagenen Theorie.

Im Rahmen der von ihnen entwickelten Theorie, der sogenannten Wellengenetik, wurden mehrere Grundprinzipien aufgestellt, begründet und experimentell bestätigt, die das Verständnis des Phänomens Leben und der in lebender Materie ablaufenden Prozesse erheblich erweiterten.

*Gene sind nicht nur materielle Strukturen, sondern auch Wellenstrukturen
Matrizen, nach denen, wie nach Schablonen, der Körper aufgebaut wird.

Die gegenseitige Informationsübertragung zwischen Zellen, die dazu beiträgt, den Körper als ganzheitliches System zu formen und das koordinierte Funktionieren aller Körpersysteme zu korrigieren, erfolgt nicht nur chemisch – durch die Synthese verschiedener Enzyme und anderer „Signal“-Substanzen. P.P. Garyaev schlug vor und bewies dann experimentell, dass Zellen, ihre Chromosomen, DNA und Proteine ​​​​Informationen mithilfe physikalischer Felder übertragen – elektromagnetische und akustische Wellen sowie dreidimensionale Hologramme, die mit einem Laser chromosomales Licht lesen und dieses Licht aussenden, das in Radiowellen umgewandelt und erblich übertragen wird Informationen im Raum des Körpers. Das Genom höherer Organismen wird als bioholographischer Computer betrachtet, der die raumzeitliche Struktur von Biosystemen bildet. Die Träger der Feldmatrizen, auf denen der Organismus aufgebaut ist, sind Wellenfronten, die durch Genogologramme und sogenannte DNA-Solitonen festgelegt werden – eine besondere Art von akustischen und elektromagnetischen Feldern, die vom genetischen Apparat des Organismus selbst erzeugt werden und im Austausch vermittelnde Funktionen ausüben können der strategischen Regulierungsinformationen zwischen Zellen, Geweben und Organen des Biosystems.

In der Wellengenetik wurden die Vorstellungen von Gurvich – Lyubishchev – Kaznacheev – Jiang Kanzhen über die Feldebene der Geninformation bestätigt. Mit anderen Worten, der in der Quantenelektrodynamik akzeptierte Dualismus der verbindenden Einheit „Welle – Teilchen“ oder „Materie – Feld“ erwies sich in der Biologie als anwendbar, was einst von AG vorhergesagt wurde. Gurvich und AA. Ljubischtschow. Gensubstanz und Genfeld schließen sich nicht aus, sondern ergänzen sich.

Lebende Materie besteht aus nicht lebenden Atomen und Elementarteilchen, die die grundlegenden Eigenschaften von Wellen und Teilchen vereinen, aber dieselben Eigenschaften werden von Biosystemen als Grundlage für den Austausch von Wellenenergie und Informationen genutzt. Mit anderen Worten: Genetische Moleküle strahlen ein Informations-Energiefeld aus, in dem der gesamte Organismus, sein physischer Körper und seine Seele kodiert sind.

*Gene sind nicht nur das, was die sogenannte Genetik ausmacht
ischer Code, aber auch alles andere, der größte Teil der DNA, die es einmal gab
galt als bedeutungslos.

Doch genau dieser große Teil der Chromosomen wird im Rahmen der Wellengenetik als die wichtigste „intelligente“ Struktur aller Zellen des Körpers analysiert: „Nicht-kodierende Bereiche der DNA sind nicht nur Müll, sondern für einige bestimmte Strukturen.“ Zweck mit unklarem Zweck. Nicht-kodierende DNA-Sequenzen (die 95-99 % des Genoms ausmachen) sind der strategische Informationsgehalt der Chromosomen... Die Evolution von Biosystemen hat genetische Texte und das Genom geschaffen – einen Biocomputer – einen Biocomputer als quasi-intelligentes „Subjekt“ auf seiner Ebene „Lesen und Verstehen“ dieser „Texte“1. Dieser Bestandteil des Genoms, der als Supergenkontinuum bezeichnet wird, d. h. Supergen sichert die Entwicklung und das Leben von Menschen, Tieren und Pflanzen und programmiert auch das natürliche Sterben. Es gibt keine scharfe und unüberwindbare Grenze zwischen Genen und Supergenen; sie wirken als ein einziges Ganzes. Gene liefern materielle „Repliken“ in Form von RNA und Proteinen, und Supergene transformieren interne und externe Felder und bilden daraus Wellenstrukturen, in denen Informationen kodiert sind. Die genetische Gemeinsamkeit von Menschen, Tieren, Pflanzen und Protozoen besteht darin, dass diese Varianten auf Proteinebene in allen Organismen praktisch gleich oder leicht unterschiedlich sind und von Genen kodiert werden, die nur wenige Prozent der Gesamtlänge des Chromosoms ausmachen. Sie unterscheiden sich jedoch auf der Ebene des „Junk-Teils“ der Chromosomen, der fast ihre gesamte Länge ausmacht.

*Die eigenen Informationen der Chromosomen reichen für die Entwicklung nicht aus
Körper. Chromosomen sind entlang einer bestimmten Dimension physikalisch umgekehrt
Chinesisches Vakuum, das den Großteil der Informationen für die Entwicklung von EM liefert
Briona. Der genetische Apparat ist aus sich selbst und mit Hilfe von Vakuum fähig
Befehlswellenstrukturen wie Hologramme erzeugen und bereitstellen
die Entwicklung des Organismus beeinflussen.

Bedeutsam für ein tieferes Verständnis des Lebens als kosmoplanetarisches Phänomen waren die experimentellen Daten von P.P. Garyaev, der die Unzulänglichkeit des Zellgenoms bewies, das Entwicklungsprogramm des Organismus unter Bedingungen der Informationsisolierung im Biofeld vollständig zu reproduzieren. Das Experiment bestand aus dem Bau von zwei Kammern, in denen jeweils alle natürlichen Bedingungen für die Entwicklung von Kaulquappen aus Froscheiern geschaffen wurden – die notwendige Zusammensetzung von Luft und Wasser, Temperatur, Lichtverhältnisse, Teichschlamm usw. Die einzigen Unterschiede bestanden darin, dass eine Kammer aus Permaloy bestand, einem Material, das keine elektromagnetischen Wellen durchlässt, und die zweite aus gewöhnlichem Metall, das Wellen nicht stört. In jede Kammer wurde eine gleiche Menge befruchteter Froscheier gelegt. Als Ergebnis des Experiments erschienen in der ersten Kammer alle Freaks, die nach einigen Tagen starben; in der zweiten Kammer schlüpften rechtzeitig Kaulquappen und entwickelten sich normal, die sich später in Frösche verwandelten.

Es ist klar, dass den Kaulquappen in der ersten Kammer für die normale Entwicklung ein Faktor fehlte, der den fehlenden Teil der Erbinformationen trug, ohne den der Organismus nicht in seiner Gesamtheit „zusammengebaut“ werden könnte. Und da die Wände der ersten Kammer die Kaulquappen nur von der Strahlung abschneiden, die ungehindert in die zweite Kammer eindringt, liegt die Annahme nahe, dass die Filterung oder Verzerrung des natürlichen Informationshintergrunds zu Deformationen und zum Tod der Embryonen führt. Das bedeutet, dass die Kommunikation genetischer Strukturen mit dem äußeren Informationsfeld für die harmonische Entwicklung des Organismus unbedingt notwendig ist. Externe (exobiologische) Feldsignale transportieren zusätzliche und möglicherweise wichtigste Informationen in das Genkontinuum der Erde.

* DNA-Texte und Hologramme des chromosomalen Kontinuums können in mehrdimensionalen Raum-Zeit- und semantischen Versionen gelesen werden. Es gibt Wellensprachen des Zellgenoms, ähnlich denen des Menschen.

In der Wellengenetik verdient die Begründung der Einheit der fraktalen (sich auf verschiedenen Skalen wiederholenden) Struktur von DNA-Sequenzen und menschlicher Sprache besondere Aufmerksamkeit. Dass die vier Buchstaben des genetischen Alphabets (Adenin, Guanin, Cytosin, Thymin) in DNA-Texten fraktale Strukturen bilden, wurde bereits 1990 entdeckt und löste keine besondere Reaktion aus. Die Entdeckung genähnlicher fraktaler Strukturen in der menschlichen Sprache kam jedoch sowohl für Genetiker als auch für Linguisten überraschend. Es zeigte sich, dass der akzeptierte und bereits bekannte Vergleich von DNA mit Texten, der nach der Entdeckung der Einheit der fraktalen Struktur und der menschlichen Sprache metaphorischer Natur war, völlig berechtigt ist.

Zusammen mit den Mitarbeitern des Mathematischen Instituts der Russischen Akademie der Wissenschaften hat die Gruppe von P.P. Garyaeva entwickelte eine Theorie der fraktalen Darstellung natürlicher (menschlicher) und genetischer Sprachen. Die praktische Erprobung dieser Theorie im Bereich der „Sprach“-Merkmale der DNA zeigte die strategisch richtige Ausrichtung der Forschung.

Genau wie in den Experimenten von Jiang Kanzhen hat die Gruppe von P.P. Garyaev wurde der Effekt der Übersetzung und Einführung wellensupergenetischer Informationen vom Donor zum Akzeptor ermittelt. Es wurden Geräte geschaffen – Generatoren von Solitonenfeldern, in die Sprachalgorithmen beispielsweise in Russisch oder Englisch eingegeben werden konnten. Solche Sprachstrukturen verwandelten sich in solitonenmodulierte Felder – Analoga derjenigen, die Zellen im Prozess der Wellenkommunikation betreiben. Der Körper und sein genetischer Apparat „erkennen“ solche „Wellenphrasen“ als ihre eigenen und handeln entsprechend den von der Person von außen eingeführten Sprachempfehlungen. Durch die Entwicklung bestimmter Sprach- und Sprachalgorithmen war es beispielsweise möglich, strahlengeschädigte Weizen- und Gerstensamen wiederherzustellen. Darüber hinaus „verstanden“ Pflanzensamen diese Rede, unabhängig davon, in welcher Sprache sie gesprochen wurde – Russisch, Deutsch oder Englisch. Experimente wurden an Zehntausenden Zellen durchgeführt.

Um die Wirksamkeit wachstumsstimulierender Wellenprogramme in Kontrollexperimenten zu testen, wurden bedeutungslose Sprachpseudocodes durch Generatoren in das Pflanzengenom eingeführt, die keinen Einfluss auf den Pflanzenstoffwechsel hatten, während der sinnvolle Eintritt in die semantischen Schichten des Pflanzengenoms im Biofeld die Wirkung hatte eine starke, aber kurzfristige Beschleunigung des Wachstums.

Die Erkennung menschlicher Sprache durch Pflanzengenome (unabhängig von der Sprache) steht voll und ganz im Einklang mit der Position der Sprachgenetik über die Existenz einer Protosprache des Genoms von Biosystemen in den frühen Stadien ihrer Evolution, die allen Organismen gemeinsam ist und in ihnen erhalten bleibt allgemeine Struktur des Genpools der Erde. Hier kann man die Übereinstimmung mit den Ideen des Klassikers der Strukturlinguistik N. Chomsky sehen, der glaubte, dass alle natürlichen Sprachen eine tiefe angeborene universelle Grammatik haben, die für alle Menschen und wahrscheinlich für ihre eigenen supergenetischen Strukturen unveränderlich ist.

Abschluss

Grundsätzlich neue Punkte in der Erforschung der Mikrowelt waren:

· Jedes Elementarteilchen hat sowohl Korpuskular- als auch Welleneigenschaften.

· Materie kann sich in Strahlung umwandeln (durch die Vernichtung eines Teilchens und eines Antiteilchens entsteht ein Photon, also ein Lichtquant).

· Sie können den Ort und den Impuls eines Elementarteilchens nur mit einer bestimmten Wahrscheinlichkeit vorhersagen.

· Ein Gerät, das die Realität untersucht, beeinflusst sie.

· Eine genaue Messung ist nur möglich, wenn ein Partikelstrom emittiert wird, nicht jedoch ein einzelner Partikel.

Referenzliste

1. P.P. Goryaev, „Wellengenetischer Code“, M., 1997.

2. G. Idlis, „Revolution in Astronomie, Physik und Kosmologie“, M., 1985.

3. A.A. Gorelow. Vorlesungsreihe „Konzepte der modernen Naturwissenschaft“,

4. Moskau „Zentrum“ 2001

5. V.I. Lawrinenko, V.P. Ratnikov, „Konzepte der modernen Naturwissenschaft“, M., 2000.

6. Konzepte der modernen Naturwissenschaft: Lehrbuch für Universitäten / Ed. Prof. V.N. Lawrinenko, Prof. V.P. Ratnikowa. – 3. Auflage, überarbeitet. und zusätzlich -- M.: UNITY-DANA, 2006.

Gepostet auf Allbest.ru

Ähnliche Dokumente

    Theorie der atomar-molekularen Struktur der Welt. Objekte der Mikrowelt: Elektron, Elementarteilchen, Fermionen, Leptonen, Hadronen, Atom, Atomkern und Molekül. Entwicklung der Quantenmechanik und Mikroweltphänomene. Konzepte der Mikrowelt und Quantenmechanik.

    Zusammenfassung, hinzugefügt am 26.07.2010

    Die Entstehung nichtklassischer Konzepte in der Physik. Wellennatur des Elektrons. Das Experiment von Davisson und Germer (1927). Merkmale der quantenmechanischen Beschreibung der Mikrowelt. Heisenberg-Matrixmechanik. Elektronische Struktur von Atomen und Molekülen.

    Präsentation, hinzugefügt am 22.10.2013

    Die Entstehungsgeschichte der Quantentheorie. Entdeckung des Compton-Effekts. Der Inhalt der Konzepte von Rutherford und Bohr bezüglich der Struktur des Atoms. Grundprinzipien der Wellentheorie von Broglie und der Unschärferelation von Heisenberg. Welle-Teilchen-Dualität.

    Zusammenfassung, hinzugefügt am 25.10.2010

    Physikalische Konzepte der Antike und des Mittelalters. Entwicklung der Physik in der Neuzeit. Übergang von klassischen zu relativistischen Konzepten in der Physik. Das Konzept der Entstehung von Ordnung aus dem Chaos von Empedokles und Anaxagoras. Moderne Physik der Makro- und Mikrowelt.

    Zusammenfassung, hinzugefügt am 27.12.2016

    Geschichte der Entwicklung der Quantentheorie. Quantenfeldbild der Welt. Grundprinzipien der quantenmechanischen Beschreibung. Das Prinzip der Beobachtbarkeit, Klarheit quantenmechanischer Phänomene. Unsicherheitsbeziehung. N. Bohrs Komplementaritätsprinzip.

    Zusammenfassung, hinzugefügt am 22.06.2013

    Wärmestrahlung, Plancks Quantenhypothese. Quanteneigenschaften elektromagnetischer Strahlung. Einsteins Formel für den photoelektrischen Effekt. Teilchen-Wellen-Dualismus der Materie. Heisenberg-Unsicherheitsrelationen. Stationäre Schrödinger-Gleichung.

    Tutorial, hinzugefügt am 06.05.2013

    Die Hauptvertreter der Physik. Grundlegende physikalische Gesetze und Konzepte. Konzepte der klassischen Naturwissenschaft. Atomistisches Konzept der Struktur der Materie. Bildung eines mechanischen Weltbildes. Der Einfluss der Physik auf die Medizin.

    Zusammenfassung, hinzugefügt am 27.05.2003

    Physikalische Bedeutung von de Broglie-Wellen. Heisenberg-Unschärferelation. Teilchen-Wellen-Dualität der Teilcheneigenschaften. Bedingung für die Normalisierung der Wellenfunktion. Die Schrödinger-Gleichung als Grundgleichung der nichtrelativistischen Quantenmechanik.

    Präsentation, hinzugefügt am 14.03.2016

    Prinzipien der nichtklassischen Physik. Moderne Vorstellungen über Materie, Raum und Zeit. Grundideen und Prinzipien der Quantenphysik. Moderne Vorstellungen über Elementarteilchen. Die Struktur der Mikrowelt. Grundlegende physikalische Wechselwirkungen.

    Zusammenfassung, hinzugefügt am 30.10.2007

    Bestimmung des Schwerpunkts des Moleküls und Beschreibung der Schrödinger-Gleichung für die vollständige Wellenfunktion des Moleküls. Berechnung der Energie eines Moleküls und Aufstellung einer Gleichung für den Schwingungsanteil der molekularen Wellenfunktion. Elektronenbewegung und Molekülspektroskopie.