Fizyka mikroświata i megaświata. Fizyka atomowa

· Ścieżka mikroskopowa 3

· Granica mikroskopii 5

· Niewidzialne promieniowanie 7

· Elektrony i optyka elektronowa 9

· Elektrony to fale!? 12

· Budowa mikroskopu elektronowego 13

· Obiekty mikroskopu elektronowego 15

· Rodzaje mikroskopów elektronowych 17

· Cechy pracy z mikroskopem elektronowym 21

· Sposoby pokonywania granicy dyfrakcyjnej mikroskopii elektronowej 23

· Referencje 27

· Zdjęcia 28


Uwagi:

1. Symbol oznacza podniesienie do potęgi. Na przykład 2 3 oznacza „2 do potęgi 3”.

2. Symbol e oznacza zapisanie liczby w postaci wykładniczej. Na przykład 2 e3 oznacza „2 razy 10 do potęgi trzeciej”.

3. Wszystkie zdjęcia znajdują się na ostatniej stronie.

4. Ze względu na wykorzystanie niezupełnie „nowej” literatury, dane zawarte w tym streszczeniu nie są szczególnie „świeże”.

Oko nie widziałoby słońca,

gdyby nie był taki

Do słońca.

Goethe.

Sposób mikroskopii.

Kiedy na przełomie XVII i XVII wieku powstał pierwszy mikroskop, mało kto (ani nawet jego wynalazca) nie wyobrażał sobie przyszłych sukcesów i licznych zastosowań mikroskopii. Patrząc wstecz, jesteśmy przekonani, że ten wynalazek oznaczał coś więcej niż stworzenie nowego urządzenia: po raz pierwszy człowiek mógł zobaczyć to, co wcześniej niewidzialne.

Mniej więcej w tym samym czasie ma miejsce kolejne wydarzenie związane z wynalezieniem teleskopu, który umożliwił dostrzeżenie tego, co niewidzialne w świecie planet i gwiazd. Wynalezienie mikroskopu i teleskopu stanowiło rewolucję nie tylko w sposobie badania przyrody, ale także w samej metodzie badań.

Rzeczywiście, starożytni filozofowie przyrody obserwowali przyrodę, dowiadując się o niej jedynie tego, co widziało oko, czuła skóra i słyszało ucho. Można się tylko dziwić, jak wiele prawidłowych informacji o otaczającym ich świecie uzyskali za pomocą „nagich” zmysłów i bez przeprowadzania specjalnych eksperymentów, jak ma to miejsce obecnie. Jednocześnie, oprócz trafnych faktów i błyskotliwych domysłów, ile fałszywych „obserwacji”, stwierdzeń i wniosków pozostawili nam naukowcy starożytności i średniowiecza!

Dopiero znacznie później wynaleziono metodę badania przyrody, która polega na przeprowadzaniu świadomie zaplanowanych eksperymentów, których celem jest sprawdzenie założeń i jasno sformułowanych hipotez. Francis Bacon, jeden z jej twórców, cechy tej metody badawczej wyraził w słynnych obecnie słowach: „Przeprowadzenie eksperymentu oznacza przesłuchanie natury”. skromni i w większości przypadków ówcześni eksperymentatorzy radzili sobie bez żadnych urządzeń „wzmacniających” zmysły. Wynalezienie mikroskopu i teleskopu oznaczało ogromne rozszerzenie możliwości obserwacji i eksperymentów.

Już pierwsze obserwacje, prowadzone przy użyciu najprostszej i najbardziej niedoskonałej technologii według współczesnych koncepcji, odkryły „cały świat w kropli wody”. Okazało się, że oglądane pod mikroskopem znajome przedmioty wyglądają zupełnie inaczej: powierzchnie gładkie dla oka i dotyku okazują się w rzeczywistości szorstkie, a w „czystej” wodzie poruszają się niezliczone drobne organizmy. W ten sam sposób pierwsze obserwacje astronomiczne za pomocą teleskopów umożliwiły ludziom zobaczenie znanego im świata planet i gwiazd w nowy sposób: na przykład powierzchnia Księżyca, śpiewana przez poetów wszystkich pokoleń, okazała się górzysta i usiana licznymi kraterami, a Wenus uległa zmianie faz, podobnie jak Księżyce.

W przyszłości te proste obserwacje zaowocują niezależnymi dziedzinami nauki: mikroskopią i astronomią obserwacyjną. Miną lata, a każdy z tych obszarów rozwinie się w liczne konsekwencje, wyrażające się w szeregu bardzo różnych zastosowań w biologii, medycynie, technologii, chemii, fizyce i nawigacji.

Nowoczesne mikroskopy, które w odróżnieniu od elektronicznych nazwiemy optycznymi, są doskonałymi instrumentami pozwalającymi na uzyskanie dużych powiększeń przy dużej rozdzielczości. Rozdzielczość zależy od odległości, z której dwa sąsiednie elementy konstrukcyjne są nadal widoczne osobno. Jednak, jak wykazały badania, mikroskopia optyczna praktycznie osiągnęła zasadniczy kres swoich możliwości na skutek dyfrakcji i interferencji ¾ zjawisk wywołanych falową naturą światła.

Stopień monochromatyczności i spójności jest ważną cechą fal dowolnego rodzaju (elektromagnetycznych, dźwiękowych itp.). Wibracje monochromatyczne ¾ to wibracje składające się z fal sinusoidalnych o jednej określonej częstotliwości. Kiedy wyobrażamy sobie oscylacje odpowiednio w postaci prostej sinusoidy o stałej amplitudzie, częstotliwości i fazie, to jest to pewna idealizacja, ponieważ ściśle rzecz biorąc, w przyrodzie nie ma oscylacji i fal, które byłyby absolutnie dokładnie opisane przez sinus fala. Jednak, jak wykazały badania, rzeczywiste oscylacje i fale mogą zbliżać się do idealnej sinusoidy z większym lub mniejszym stopniem dokładności (mają większy lub mniejszy stopień monochromatyczności). Oscylacje i fale o złożonym kształcie można przedstawić jako zbiór sinusoidalnych oscylacji i fal. W rzeczywistości tę operację matematyczną przeprowadza pryzmat, który rozkłada światło słoneczne na widmo kolorów.

Fale monochromatyczne, w tym także świetlne, o tej samej częstotliwości (pod pewnymi warunkami!) mogą oddziaływać ze sobą w taki sposób, że w efekcie „światło zamienia się w ciemność” lub, jak to się mówi, fale mogą się zakłócać. Podczas interferencji następuje lokalne „wzmocnienie i tłumienie” fal przez siebie. Aby obraz interferencji fal pozostał niezmieniony w czasie (na przykład podczas oglądania go okiem lub fotografowania), konieczne jest, aby fale były ze sobą spójne (dwie fale są ze sobą spójne, jeśli dają stabilny wzór interferencyjny, który odpowiada równości ich częstotliwości i stałemu przesunięciu fazowemu).

Jeśli na drodze propagacji fal zostaną umieszczone przeszkody, będą one znacząco wpływać na kierunek propagacji tych fal. Przeszkodami takimi mogą być krawędzie otworów w ekranach, obiekty nieprzezroczyste, a także wszelkiego rodzaju niejednorodności na drodze propagacji fali. W szczególności obiekty, które są przezroczyste (dla danego promieniowania), ale różnią się współczynnikiem załamania światła, a co za tym idzie prędkością przejścia fal w ich wnętrzu, również mogą wykazywać niejednorodność. Zjawisko zmiany kierunku rozchodzenia się fal podczas ich przechodzenia w pobliżu przeszkód nazywa się dyfrakcją. Dyfrakcji zwykle towarzyszą zjawiska interferencji.

Granice mikroskopii.

Obraz uzyskany za pomocą dowolnego układu optycznego jest wynikiem interferencji różnych części fali świetlnej przechodzącej przez ten układ. W szczególności wiadomo, że ograniczenie fali świetlnej przez źrenicę wejściową układu (krawędzie soczewek, zwierciadeł i przysłon tworzących układ optyczny) i związane z tym zjawisko dyfrakcji prowadzi do tego, że światło punkt zostanie przedstawiony w postaci koła dyfrakcyjnego. Okoliczność ta ogranicza możliwość rozróżnienia drobnych szczegółów obrazu tworzonego przez układ optyczny. Obraz np. nieskończenie odległego źródła światła (gwiazdy) powstały w wyniku dyfrakcji na okrągłej źrenicy (obramowanie lunety) jest obrazem dość złożonym (patrz ryc. 1). Na tym zdjęciu widać zestaw koncentrycznych jasnych i ciemnych pierścieni. Rozkład oświetlenia, który można ustalić, przesuwając się od środka obrazu do jego krawędzi, opisują dość złożone wzory podawane na kursach optyki. Jednak wzory nieodłącznie związane z pozycją pierwszego (od środka obrazu) ciemnego pierścienia wyglądają prosto. Oznaczmy przez D średnicę źrenicy wejściowej układu optycznego, a przez l długość fali światła wysyłanego przez nieskończenie odległe źródło.

Ryż. 1. Obraz dyfrakcyjny punktu świetlnego (tzw. dysku Airy'ego).

Jeśli oznaczymy przez j kąt, pod jakim widoczny jest promień pierwszego ciemnego pierścienia, to, jak udowodniono w optyce,

grzech J » 1,22 * ( l /D) .

Zatem w wyniku ograniczenia czoła fali do krawędzi układu optycznego (źrenicy wejściowej) zamiast obrazowania punktu świetlnego odpowiadającego obiektowi w nieskończoności, otrzymujemy zespół pierścieni dyfrakcyjnych. Naturalnie zjawisko to ogranicza możliwość rozróżnienia dwóch blisko położonych punktowych źródeł światła. Rzeczywiście, w przypadku dwóch odległych źródeł, np. dwóch gwiazd znajdujących się bardzo blisko siebie w sklepieniu nieba, w płaszczyźnie obserwacji tworzą się dwa układy koncentrycznych pierścieni. W pewnych warunkach mogą się one na siebie nakładać i rozróżnienie źródeł staje się niemożliwe. To nie przypadek, że zgodnie z „zaleceniem” podanego powyżej wzoru dążą do budowy teleskopów astronomicznych o dużych rozmiarach źrenicy wejściowej. Granicę rozdzielczości, przy której można obserwować dwa blisko siebie rozmieszczone źródła światła, określa się w następujący sposób: dla pewności za granicę rozdzielczości przyjmuje się położenie obrazów dyfrakcyjnych dwóch punktowych źródeł światła, przy którym pierwszy ciemny pierścień utworzony przez jedno z źródeł pokrywa się ze środkiem jasnej plamki utworzonej przez inne źródło.


MATERIA W MIKROŚWIECIE

Według współczesnych poglądów naukowych wszystkie obiekty naturalne są uporządkowanymi, ustrukturyzowanymi i hierarchicznie zorganizowanymi systemami. Stosując podejście systemowe, nauki przyrodnicze nie tylko identyfikują typy systemów materialnych, ale ujawniają ich powiązania i relacje. Istnieją trzy poziomy budowy materii.

Makroświat- świat makroobiektów, których wymiar jest skorelowany ze skalami ludzkie doświadczenie; wielkości przestrzenne wyrażane są w milimetrach, centymetrach i kilometrach, a czas - w sekundach, minutach, godzinach, latach.

Mikroświat- świat niezwykle mały, nie da się bezpośrednio zaobserwować mikroobiekty, których wymiary przestrzenne wahają się od 10 -8 do 10 -16 cm, a czas życia - od nieskończoności do 10 -24 sek.

Megaświat- świat jest ogromny skala kosmiczna i prędkości, odległość mierzy się w latach świetlnych, a czas życia obiektów kosmicznych mierzy się w milionach i miliardach lat.

I choć poziomy te rządzą się swoimi specyficznymi prawami, mikro-, makro- i mega-światy są ze sobą ściśle powiązane.

Mikroświat: koncepcje współczesnej fizyki

Kwantowo-mechaniczna koncepcja opisu mikroświata. Badając mikrocząstki, naukowcy stanęli przed paradoksalną sytuacją z punktu widzenia nauki klasycznej: te same obiekty wykazywały zarówno właściwości falowe, jak i korpuskularne. Pierwszy krok w tym kierunku zrobił niemiecki fizyk M. Plancka (1858-1947).

Badając promieniowanie cieplne „absolutnie czarnego” ciała, M. Planck doszedł do oszałamiającego wniosku, że w procesach radiacyjnych energia może być oddawana lub absorbowana nie w sposób ciągły i nie w dowolnych ilościach, ale tylko w pewnych niepodzielnych porcjach - kwanty. Wielkość tych najmniejszych porcji energii określa się na podstawie liczby oscylacji odpowiedniego rodzaju promieniowania i uniwersalnej stałej naturalnej, którą M. Planck wprowadził do nauki pod symbolem h: E = hy , który później stał się sławny (gdzie h – kwant energii, Na - częstotliwość).

Planck przedstawił otrzymany wzór 19 grudnia 1900 roku na spotkaniu Berlińskiego Towarzystwa Fizycznego. W historii fizyki dzień ten uważany jest za urodziny teorii kwantowej i całej fizyki atomowej; dzień ten wyznacza początek nowej ery nauk przyrodniczych.

Wielki niemiecki fizyk teoretyczny A. Einstein (1879-1955) przeniósł w 1905 roku ideę kwantowania energii podczas promieniowania cieplnego na ogólnie promieniowanie i w ten sposób uzasadnił nową doktrynę o świetle. Koncepcja światła jako deszczu szybko poruszających się kwantów była niezwykle odważna i początkowo niewielu uważało ją za słuszną. Sam M. Planck nie zgodził się z rozszerzeniem hipotezy kwantowej na kwantową teorię światła, który przypisał jej kwantowej formule tylko do rozważanych przez niego praw promieniowania cieplnego ciała doskonale czarnego.

A. Einsteina zasugerował, że mówimy o wzorze naturalnym uniwersalny charakteru i doszedł do wniosku, że należy poznać korpuskularną strukturę światła. Kwantowa teoria światła A. Einstein argumentował, że światło jest zjawiskiem falowym stale rozchodzącym się w przestrzeni. Jednocześnie energia świetlna ma strukturę nieciągłą. Światło można rozpatrywać jako strumień kwantów świetlnych, czyli fotonów. Ich energię wyznacza elementarny kwant działania Plancka i odpowiadająca mu liczba drgań. Światło różne kolory składa się z kwantów światła o różnych energiach.

Możliwe stało się zobrazowanie zjawiska efektu fotoelektrycznego, którego istotą jest wybijanie elektronów z substancji pod wpływem fal elektromagnetycznych. Zjawisko efektu fotoelektrycznego odkryto w drugiej połowie XIX wieku, a w latach 1888-1890 efekt fotoelektryczny był systematycznie badany przez rosyjskiego fizyka Aleksandra Grigoriewicza Stoletowa. Zewnętrznie efekt objawiał się tym, że gdy strumień światła pada na ujemnie naładowaną metalową płytkę, elektroskop podłączony do płytki pokazuje obecność chwilowego prądu elektrycznego. Prąd płynie jednak tylko w obwodzie zamkniętym, a obwód „metalowa płytka – elektroskop” nie jest zamknięty. A. Einstein wykazał, że takie zamknięcie obwodu następuje poprzez przepływ elektronów wybijanych przez fotony z powierzchni płytki.

Eksperymenty wykazały, że o obecności lub braku efektu fotoelektrycznego decyduje częstotliwość padającej fali. Jeśli założymy, że każdy elektron jest wyrzucany przez jeden foton, wówczas staje się jasne, że efekt zachodzi tylko wtedy, gdy energia fotonu, a co za tym idzie i jego częstotliwość, jest na tyle wysoka, aby pokonać siły wiązania elektronu z materią.

Ryż. Schemat efektu fotoelektrycznego

Za tę pracę Einstein otrzymał w 1922 roku Nagrodę Nobla w dziedzinie fizyki. Jego teoria została potwierdzona w eksperymentach amerykańskiego fizyka RE Millikan(1868-1953). Odkryty w 1923 roku przez amerykańskiego fizyka A. H. Compton(1892-1962) zjawisko (efekt Comptona), które obserwuje się, gdy atomy ze swobodnymi elektronami poddawane są działaniu bardzo twardego promieni rentgenowskich, ponownie i ostatecznie potwierdziło kwantową teorię światła.

Doszło do paradoksalnej sytuacji: odkryto, że światło zachowuje się nie tylko jak fala, ale także jak przepływ ciałek. W eksperymentach na dyfrakcja I ingerencja jego fala właściwości i kiedy efekt fotoelektryczny - korpuskularny. Główną cechę charakterystyczną jego dyskretności (wrodzoną mu część energii) obliczono poprzez charakterystykę czysto falową – częstotliwość y (E = hy). W ten sposób odkryto, że należy to opisać pola niezbędny nie tylko ciągłe, ale także korpuskularne podejście.

Idea podejść do badania materii nie pozostała niezmieniona: w 1924 roku francuski fizyk Ludwika de Broglie’a(1892-1987) wysunęli ideę falowych właściwości materii, potrzebę wykorzystania pojęć falowych i korpuskularnych nie tylko w teorii światła, ale także w teoria materii. Twierdził, że właściwości fal wraz z korpuskularnym, dotyczyć każdego rodzaju materii: elektrony, protony, atomy, cząsteczki, a nawet ciała makroskopowe. Według de Broglie’a każde ciało posiadające masę T , poruszać się z dużą prędkością w , odpowiada fali

Właściwie podobny wzór był znany wcześniej, ale tylko w odniesieniu do kwantów światła - fotony.

W 1926 austriacki fizyk E. Schrödingera(1887-1961) znaleźli równanie matematyczne określające zachowanie fal materii, tzw. Równanie Schrödingera. Fizyk angielski P. Diraca(1902-1984) podsumowali to. Odważna myśl L. de Broglie o uniwersalnym „dualizmie” cząstek i fal umożliwiła skonstruowanie teorii, za pomocą której możliwe było pokrycie właściwości materii i światła w ich jedności.

Najbardziej przekonującym dowodem na to, że De Broglie miał rację, było odkrycie dyfrakcji elektronów przez amerykańskich fizyków w 1927 roku K. Davissona i L. Germera. Następnie przeprowadzono eksperymenty mające na celu wykrycie dyfrakcji neutronów, atomów, a nawet cząsteczek. Jeszcze ważniejsze było odkrycie nowych cząstek elementarnych przewidywanych na podstawie układu wzorów rozwiniętej mechaniki falowej.

Zatem do wymiany dwa różne pojawiły się podejścia do badania dwóch różnych form materii: korpuskularnej i falowej pojedynczy podejście – dualizm korpuskularno-falowy. Wyznanie dualizm korpuskularno-falowy stał się uniwersalny we współczesnej fizyce: każdy obiekt materialny charakteryzuje się obecnością zarówno właściwości korpuskularnych, jak i falowych.

Na nich opiera się kwantowo-mechaniczny opis mikroświata związek niepewności, założona przez niemieckiego fizyka W. Heisenberga(1901-76) i zasada komplementarności Duński fizyk N.Bora(1885-1962),.

Esencja relacje niepewności To jest V. Heisenberg niemożliwe jest równie dokładne określenie uzupełniających się cech mikrocząstki na przykład współrzędne cząstki i jej pęd (pęd). Jeżeli zostanie przeprowadzone doświadczenie, które pokaże dokładnie, gdzie w danym momencie znajduje się cząstka, wówczas ruch zostaje zakłócony do tego stopnia, że ​​cząstki nie można już później odnaleźć. I odwrotnie, przy dokładnym pomiarze prędkości niemożliwe jest określenie położenia cząstki.

Z punktu widzenia mechaniki klasycznej zależność niepewności wydaje się absurdalna. Jednakże my, ludzie, żyjemy w makrokosmosie i w zasadzie Nie jesteśmy w stanie zbudować modelu wizualnego, który byłby adekwatny do mikroświata. Relacja niepewności jest wyraz niemożności obserwacji mikroświata bez jego zakłócania. Na opis korpuskularny pomiar przeprowadza się w celu uzyskania dokładnej wartości energia i wielkość ruchu mikrocząstek na przykład podczas rozpraszania elektronów. W eksperymentach mających na celu dokładne określenie lokalizacji wręcz przeciwnie, jest używany wyjaśnienie fali, zwłaszcza gdy elektrony przechodzą przez cienkie płytki lub podczas obserwacji odchylenia promieni.

Podstawową zasadą mechaniki kwantowej jest również zasada komplementarności, Do kogo N. Bor dał następujące sformułowanie: „Pojęcia cząstek i fal uzupełniają się, a jednocześnie są ze sobą sprzeczne, są uzupełniającymi się obrazami tego, co się dzieje”.

Zatem, wzory korpuskularne i falowe muszą się uzupełniać, tj. być komplementarnym. Tylko biorąc pod uwagę oba aspekty, można uzyskać całościowy obraz mikroświata. Istnieją dwie klasy urządzeń: w niektórych obiektach kwantowych zachowują się jak fale, w innych jak cząstki. M. Urodzony(1882-1970) zauważyli, że fale i cząstki są „projekcjami” rzeczywistości fizycznej na sytuację eksperymentalną.

Atomistyczna koncepcja budowy materii. Atomistyczna hipoteza budowy materii wysunięta w starożytności Demokryt, odrodziło się w XVIII w. chemik J. Daltona. W fizyce koncepcja atomów jako ostatnich niepodzielnych elementów strukturalnych materii wywodzi się z chemii.

Faktycznie badania fizyczne atomy zaczynają się pod koniec XIX wieku, kiedy francuski fizyk AA Becquerel(1852 – 1908) odkryto zjawisko promieniotwórczości. Badanie radioaktywności kontynuowali francuscy fizycy i małżonkowie P. Curie(1859-1906) i M. Skłodowska-Curie(1867-1934), który odkrył nowe pierwiastki promieniotwórcze polon i rad.

Historia badania struktura atomowa rozpoczęła się w 1895 roku dzięki odkryciu angielskiego fizyka J.J. Thomson(1856 – 1940)elektron. Ponieważ elektrony mają ładunek ujemny, a atom jako całość jest elektrycznie obojętny, przyjęto założenie o obecności cząstki naładowanej dodatnio. Obliczono, że masa elektronu wynosi 1/1836 masy dodatnio naładowanej cząstki.

Opierając się na takiej masie dodatnio naładowanej cząstki, angielski fizyk W. Thomsona(1824 – 1907, od 1892 r. p Kelwin), zaproponował pierwszy model atomu w 1902 roku: ładunek dodatni jest rozłożony na dość dużej powierzchni, a elektrony są w nim przeplatane, niczym „rodzynki w budyniu”. Model ten nie wytrzymał jednak testów eksperymentalnych.

W 1908 r E. Marsdena I X. Geig er, pracownicy angielskiego fizyka E. Rutherforda przeprowadzili eksperymenty z przejściem cząstek alfa przez cienkie metalowe płytki i odkryli, że prawie wszystkie cząstki przechodzą przez płytkę tak, jakby nie było żadnej przeszkody, a tylko 1/10 000 z nich ulega silnemu ugięciu . E. Rutherforda(1871-1937) doszli do wniosku, że natrafili na jakąś przeszkodę. który jest dodatnio naładowanym jądrem atomu, którego rozmiar (10–12 cm) jest bardzo mały w porównaniu z rozmiarem atomu (10–8 cm), ale masa atomu jest w nim prawie całkowicie skoncentrowana.

Model atomu zaproponowany przez E. Rutherforda w 1911 przypominał Układ Słoneczny: w centrum znajduje się jądro atomowe, a wokół niego elektrony poruszają się po swoich orbitach. Nierozwiązywalna sprzeczność model ten zakładał, że elektrony, aby nie utracić stabilności, muszą przenosić wokół rdzenia. Jednocześnie poruszające się elektrony, zgodnie z prawami elektrodynamiki, muszą promieniować energia elektromagnetyczna. Ale w tym przypadku elektrony bardzo szybko straciły całą swoją energię i spadnie na rdzeń.

Następna sprzeczność wiąże się z faktem, że widmo emisyjne elektronu musi być ciągłe, gdyż elektron zbliżając się do jądra zmieniałby swoją częstotliwość. Jednak atomy emitują światło tylko o określonych częstotliwościach. Planetarny model atomu Rutherforda okazał się niezgodny z elektrodynamiką J. C. Maxwella.

W 1913 roku wielki duński fizyk N. Bor wysunął hipotezę budowy atomu opartą na dwóch postulatach, całkowicie niezgodnych z fizyką klasyczną, a bazującą na zasadzie kwantyzacji:

1) w każdym atomie jest ich kilka orbity stacjonarne poruszające się elektrony, wzdłuż których może istnieć elektron, nie promieniuje;

2) kiedy przemiana elektron z jednej orbity stacjonarnej do innego atomu emituje lub pochłania część energii.

Wyjaśniają to postulaty Bohra stabilność atomów: elektrony w stanach stacjonarnych nie emitują energii elektromagnetycznej bez przyczyny zewnętrznej. Wyjaśnione i widma liniowe atomów: każda linia widma odpowiada przejściu elektronu z jednego stanu do drugiego.

Teoria atomu N. Bohra umożliwiła dokładny opis atomu wodoru, składającego się z jednego protonu i jednego elektronu, co dość dobrze zgadzało się z danymi eksperymentalnymi. Dalsze rozszerzenie teorii na atomy wieloelektronowe napotkało trudności nie do pokonania. Długość fali poruszającego się elektronu wynosi około 10 -8 cm, tj. jest tego samego rzędu co wielkość atomu. Ale ruch cząstki należącej do dowolnego układu można opisać z wystarczającą dokładnością jako mechaniczny ruch punktu materialnego po określonej orbicie tylko wtedy, gdy długość fali cząstki nieistotny w porównaniu do wielkości systemu.

W związku z tym zasadniczo niemożliwe jest dokładne opisanie budowy atomu w oparciu o ideę orbit elektronów punktowych, ponieważ takie orbity w rzeczywistości nie istnieją. Elektrony i ich ładunki, ze względu na swój falowy charakter, są niejako rozsmarowane po całym atomie, ale nie równomiernie, ale w taki sposób, że w niektórych punktach uśredniona w czasie gęstość ładunku elektronów jest większa, a w innych mniejsza .

Teoria N. Bohra stanowi niejako granicę pierwszego etapu rozwoju fizyki współczesnej. Jest to najnowsza próba opisu budowy atomu oparta na fizyce klasycznej, uzupełniona jedynie niewielką liczbą nowych założeń. Procesów zachodzących w atomie w zasadzie nie da się wizualnie przedstawić w formie modeli mechanicznych, przez analogię do wydarzeń w makrokosmosie. Nawet pojęcia przestrzeni i czasu w postaci istniejącej w makroświecie okazały się nieodpowiednie do opisu zjawisk mikrofizycznych.

Cząstki elementarne i kwarkowy model atomu. Dalszy rozwój idei atomizmu wiązał się z badaniem cząstek elementarnych. Termin „cząstka elementarna” pierwotnie oznaczało najprostsze, dalsze nierozkładalne cząstki, które leżą u podstaw wszelkich formacji materialnych. Obecnie ustalono, że cząstki mają taką czy inną strukturę, jednak historycznie ustalona nazwa nadal istnieje. Obecnie odkryto ponad 350 mikrocząstek.

Główna charakterystyka cząstkami elementarnymi są masa, ładunek, średni czas życia, spin i liczby kwantowe.

Masa spoczynkowa cząstek elementarnych określana w odniesieniu do masy spoczynkowej elektronu. Istnieją cząstki elementarne, które nie mają masy spoczynkowej - fotony. Pozostałe cząstki według tego kryterium są podzielone na leptony- cząstki lekkie (elektron i neutrino); mezony- cząstki średnie o masie od jednego do tysiąca elektronów; bariony- ciężkie cząstki, których masa przekracza masę tysiąca elektronów i które obejmują protony, neutrony, hiperony i wiele rezonansów.

Ładunek elektryczny. Wszystkie znane cząstki mają ładunek dodatni, ujemny lub zerowy. Każdej cząstce, z wyjątkiem fotonu i dwóch mezonów, odpowiadają antycząstki o przeciwnych ładunkach. Uważa się, że kwarki są cząstkami frakcyjnyładunek elektryczny.

Przez całe życie cząstki dzielą się na stabilny(foton, dwa rodzaje neutrina, elektron i proton) i nietrwały. W budowie makrociał najważniejszą rolę odgrywają cząstki stabilne. Wszystkie pozostałe cząstki są niestabilne, istnieją około 10 -10 - 10 -24 s, po czym ulegają rozpadowi. Cząstki elementarne o średnim czasie życia 10 -23 - 10 -22 sek. zwany rezonanse, które rozpadają się zanim opuszczą atom lub jądro atomowe. Dlatego nie jest możliwe ich wykrycie w rzeczywistych eksperymentach.

Pojęcie "z powrotem", który nie ma analogii w fizyce klasycznej, oznaczają wewnętrzny moment pędu mikrocząstki.

"Liczby kwantowe" wyrażają dyskretne stany cząstek elementarnych, na przykład położenie elektronu na określonej orbicie elektronowej, moment magnetyczny itp.

Wszystkie cząstki elementarne dzielą się na dwie klasy - fermiony(nazwany po E. Fermiego) I bozony(nazwany po S. Bosego). Fermiony tworzą substancja, bozony niosą interakcja, te. są kwantami pola. W szczególności do fermionów zaliczają się kwarki i leptony, a do bozonów zaliczają się kwanty pola (fotony, bozony wektorowe, gluony, grawityny i grawitony). Te cząstki są brane pod uwagę naprawdę elementarne te. dalej nierozkładalny. Pozostałe cząstki są klasyfikowane jako warunkowo elementarne, te. cząstki złożone utworzone z kwarków i odpowiadających im kwantów pola.

Cząstki elementarne uczestniczą we wszystkich typach znanych oddziaływań. Istnieją cztery typy podstawowe interakcje w naturze.

Silna interakcja zachodzi na poziomie jąder atomowych i reprezentuje wzajemne przyciąganie i odpychanie ich części składowych. Działa na odległość rzędu 10 -13 cm, w pewnych warunkach silne oddziaływanie bardzo mocno wiąże cząstki, w wyniku czego powstają układy materialne o dużej energii wiązania - jądra atomowe. Z tego powodu jądra atomów są bardzo stabilne i trudne do zniszczenia.

Oddziaływanie elektromagnetyczne około tysiąc razy słabszy od silnego, ale o znacznie większym zasięgu. Ten typ interakcji jest charakterystyczny dla cząstek naładowanych elektrycznie. Nośnikiem oddziaływania elektromagnetycznego jest foton nie posiadający ładunku – kwant pola elektromagnetycznego. W procesie oddziaływania elektromagnetycznego elektrony i jądra atomowe łączą się w atomy, a atomy w cząsteczki. W pewnym sensie jest to interakcja specjalizuje się w chemii i biologii.

Słaba interakcja prawdopodobnie pomiędzy różnymi cząsteczkami. Rozciąga się na odległość rzędu 10 -13 - 10 -22 cm i wiąże się głównie z rozpadem cząstek, np. z przemianą neutronu w proton, elektron i antyneutrino zachodzącą w jądrze atomowym. Według obecnego stanu wiedzy większość cząstek jest niestabilna właśnie ze względu na słabe oddziaływanie.

Oddziaływanie grawitacyjne- najsłabszy, nie brany pod uwagę w teorii cząstek elementarnych, gdyż przy charakterystycznych odległościach rzędu 10 -13 cm daje niezwykle małe efekty. Jednak na bardzo mały odległości (około 10 -33 cm) i przy bardzo duży energii, grawitacja ponownie nabiera istotnego znaczenia. Tutaj zaczynają pojawiać się niezwykłe właściwości próżni fizycznej. Superciężkie cząstki wirtualne tworzą wokół siebie zauważalne pole grawitacyjne, które zaczyna zniekształcać geometrię przestrzeni. W skali kosmicznej oddziaływanie grawitacyjne ma kluczowe znaczenie. Jego zakres działania nie jest ograniczony.

Tabela Podstawowe interakcje

Wszystkie cztery interakcje konieczne i wystarczające budować różnorodny świat. Bez silne interakcje nie istniałyby jądra atomowe, a gwiazdy i Słońce nie byłyby w stanie wytwarzać ciepła i światła za pomocą energii jaszczurki. Bez oddziaływania elektromagnetyczne nie byłoby atomów, cząsteczek, obiektów makroskopowych, ciepła ani światła. Bez słabe interakcje Reakcje jądrowe nie byłyby możliwe w głębi Słońca i gwiazd, nie doszłoby do wybuchów supernowych, a ciężkie pierwiastki niezbędne do życia nie mogłyby rozprzestrzenić się po całym Wszechświecie. Bez oddziaływanie grawitacyjne Wszechświat nie mógł ewoluować, ponieważ grawitacja jest czynnikiem jednoczącym, który zapewnia jedność Wszechświata jako całości i jego ewolucję.

Współczesna fizyka doszła do wniosku, że wszystkie cztery podstawowe interakcje można uzyskać w wyniku jednej fundamentalnej interakcji - supermoce. Najbardziej uderzającym osiągnięciem był dowód, że w bardzo wysokich temperaturach (lub energiach) łączą się wszystkie cztery siły jeden.

Przy energii 100 GeV (100 miliardów elektronowoltów) łączą się oddziaływania elektromagnetyczne i słabe. Temperatura ta odpowiada temperaturze Wszechświata 10 -10 s po Wielkim Wybuchu. Przy energii 10 15 GeV łączy je silne oddziaływanie, a przy energii 10 19 GeV wszystkie cztery oddziaływania łączą się.

Postępy w badaniach nad cząsteczkami również przyczyniły się do tego rozwój koncepcji atomizmu. Obecnie uważa się, że spośród wielu cząstek elementarnych można wyróżnić 12 cząstek podstawowych i tyle samo antycząstek. Jest sześć cząstek kwarki o egzotycznych nazwach „górny”, „dolny”, „zaczarowany”, „dziwny”, „prawdziwy”, „uroczy”. Pozostałych sześć to leptony: elektron, mion, cząstka tau i odpowiadające im neutrina (elektron, mion, neutrino tau).

Te 12 cząstek jest pogrupowanych w trzy generacje, z których każdy składa się z czterech członków.

Pierwsza zawiera kwarki „górny” i „dolny”, elektron i neutrino elektronowe.

Drugi zawiera kwarki „urocze” i „dziwne”, mion i neutrino mionowe.

W trzecim – „prawdziwe” i „cudowne” kwarki i cząstki tau wraz z ich neutrinami.

Cała zwykła materia składa się z cząstek pierwszej generacji. Zakłada się, że pozostałe generacje można wytworzyć sztucznie w akceleratorach cząstek naładowanych.

W oparciu o model kwarkowy fizycy opracowali nowoczesne rozwiązanie problemu struktura atomów.

Każdy atom składa się z ciężki rdzeń(silnie związany przez pola gluonowe protonów i neutronów) i powłoka elektronowa. Proton ma dodatni ładunek elektryczny, neutron ma ładunek zerowy. Proton składa się z dwóch kwarków „górnych” i jednego „dolnego”, a neutron składa się z jednego kwarku „górnego” i dwóch „dolnych”. Przypominają chmurę o rozmytych granicach, złożoną z wirtualnych cząstek, które pojawiają się i znikają.

Wciąż pojawiają się pytania o pochodzenie kwarków i leptonów, czy są one podstawowymi „elementami budulcowymi” przyrody i jak bardzo są fundamentalne? Odpowiedzi na te pytania szuka się we współczesnej kosmologii. Duże znaczenie ma badanie narodzin cząstek elementarnych z próżni, budowa modeli pierwotnej syntezy jądrowej, która dała początek pewnym cząstkom w momencie narodzin Wszechświata.

Pytania do samokontroli

1. Na czym polega systematyczne podejście do struktury materii?

2. Ujawnij powiązania pomiędzy mikro, makro i mega światem.

3. Jakie koncepcje dotyczące materii i pola jako rodzajów materii rozwinęły się w ramach fizyki klasycznej?

4. Co oznacza pojęcie „kwantowy”? Opowiedz nam o głównych etapach rozwoju koncepcji kwantów.

5. Co oznacza koncepcja „dualności falowo-cząsteczkowej”? Jakie znaczenie ma zasada komplementarności N. Bohra w opisie fizycznej rzeczywistości mikroświata?

6. Jaka jest budowa atomu z punktu widzenia współczesnej fizyki?

8. Scharakteryzować właściwości cząstek elementarnych.

9. Podkreśl główne poziomy strukturalne organizacji materii w mikrokosmosie i ujawnij ich powiązania.

10. Jakie koncepcje dotyczące przestrzeni i czasu istniały w okresie przednewtonowskim?

11. Jak zmieniły się poglądy na temat przestrzeni i czasu wraz z powstaniem heliocentrycznego obrazu świata?

12. Jak I. Newton zinterpretował czas i przestrzeń?

13. Jakie idee dotyczące przestrzeni i czasu stały się decydujące w teorii względności A. Einsteina?

14. Czym jest kontinuum czasoprzestrzenne?

15. Rozwinąć współczesne metryczne i topologiczne właściwości przestrzeni i czasu.

Obowiązkowy:

4.2.1. Kwantowo-mechaniczna koncepcja opisu mikroświata

Przechodząc do badania mikroświata, odkryto, że rzeczywistość fizyczna jest jednolita i nie ma luki między materią a polem.

Badając mikrocząstki, naukowcy stanęli przed paradoksalną sytuacją z punktu widzenia nauki klasycznej: te same obiekty wykazywały zarówno właściwości falowe, jak i korpuskularne.

Pierwszy krok w tym kierunku zrobił niemiecki fizyk M. Plancka. Jak wiadomo, pod koniec XIX w. W fizyce pojawiła się trudność, którą nazwano „katastrofą ultrafioletową”. Zgodnie z obliczeniami wykorzystującymi wzór elektrodynamiki klasycznej, natężenie promieniowania cieplnego ciała całkowicie czarnego powinno wzrastać bez ograniczeń, co wyraźnie zaprzecza doświadczeniu. W procesie badań promieniowania cieplnego, który M. Planck nazwał najtrudniejszym w swoim życiu, doszedł do zdumiewającego wniosku, że w procesach radiacyjnych energia może być oddawana lub absorbowana nie w sposób ciągły i nie w dowolnych ilościach, ale tylko w znanych, niepodzielnych porcjach - kwanty. Energię kwantów określa się poprzez liczbę oscylacji odpowiedniego rodzaju promieniowania i uniwersalną stałą naturalną, którą M. Planck wprowadził do nauki pod symbolem H : E= H ty

Jeśli wprowadzenie kwantu nie stworzyło jeszcze prawdziwej teorii kwantowej, jak wielokrotnie podkreślał M. Planck, to 14 grudnia 1900 r., w dniu opublikowania formuły, położono jej podwaliny. Dlatego w historii fizyki ten dzień uważany jest za urodziny fizyki kwantowej. A ponieważ koncepcja elementarnego kwantu działania posłużyła później za podstawę do zrozumienia wszystkich właściwości powłoki atomowej i jądra atomowego, 14 grudnia 1900 r. należy uznać zarówno za urodziny całej fizyki atomowej, jak i początek nowej ery nauk przyrodniczych.

Pierwszym fizykiem, który entuzjastycznie przyjął odkrycie elementarnego kwantu działania i twórczo je rozwinął A. Einsteina. W 1905 roku przeniósł genialną ideę kwantowanej absorpcji i uwalniania energii podczas promieniowania cieplnego na promieniowanie w ogóle, uzasadniając w ten sposób nową doktrynę światła.

Idea światła jako strumienia szybko poruszających się kwantów była niezwykle odważna, wręcz odważna i początkowo niewielu wierzyło w jej słuszność. Przede wszystkim sam M. Planck nie zgodził się z rozszerzeniem hipotezy kwantowej na kwantową teorię światła, odnosząc swój kwantowy wzór jedynie do rozważanych przez siebie praw promieniowania cieplnego ciała doskonale czarnego.

A. Einstein zasugerował, że mówimy o prawie naturalnym o charakterze uniwersalnym. Nie oglądając się wstecz na poglądy panujące w optyce, odniósł hipotezę Plancka do światła i doszedł do wniosku, że należy je uznać korpuskularny struktura światła.

Kwantowa teoria światła, czyli teoria fotonów A Einsteina, twierdziła, że ​​światło jest zjawiskiem falowym stale rozchodzącym się w przestrzeni. Jednocześnie energia świetlna, aby była efektywna fizycznie, skupia się tylko w określonych miejscach, przez co światło ma nieciągłą strukturę. Światło można rozpatrywać jako strumień niepodzielnych ziaren energii, kwantów świetlnych lub fotonów. Ich energię wyznacza elementarny kwant działania Plancka i odpowiadająca mu liczba drgań. Światło o różnych barwach składa się z kwantów światła o różnych energiach.

Einsteinowska koncepcja kwantów światła pomogła zrozumieć i zwizualizować zjawisko efektu fotoelektrycznego, którego istotą jest wybijanie elektronów z substancji pod wpływem fal elektromagnetycznych. Eksperymenty wykazały, że o obecności lub braku efektu fotoelektrycznego decyduje nie intensywność padającej fali, ale jej częstotliwość. Jeśli założymy, że każdy elektron jest wyrzucany przez jeden foton, wówczas staje się jasne, że efekt zachodzi tylko wtedy, gdy energia fotonu, a co za tym idzie i jego częstotliwość, jest na tyle wysoka, aby pokonać siły wiązania elektronu z materią.

Prawidłowość tej interpretacji efektu fotoelektrycznego (za tę pracę Einstein otrzymał w 1922 roku Nagrodę Nobla z fizyki) została potwierdzona 10 lat później w eksperymentach amerykańskiego fizyka ODNOŚNIE. Milliken. Odkryty w 1923 roku przez amerykańskiego fizyka OH. Compton zjawisko (efekt Comptona), które obserwuje się, gdy atomy ze swobodnymi elektronami poddawane są działaniu bardzo twardego promieni rentgenowskich, ponownie i ostatecznie potwierdziło kwantową teorię światła. Teoria ta jest jedną z najbardziej potwierdzonych eksperymentalnie teorii fizycznych. Jednak falowa natura światła została już mocno ustalona w drodze eksperymentów z interferencją i dyfrakcją.

Doszło do paradoksalnej sytuacji: odkryto, że światło zachowuje się nie tylko jak fala, ale także jak przepływ ciałek. W doświadczeniach z dyfrakcją i interferencją ujawniają się jego właściwości falowe, a w efekcie fotoelektrycznym ujawniają się jego właściwości korpuskularne. W tym przypadku foton okazał się bardzo szczególnym rodzajem korpuskuły. Główną cechę charakterystyczną jego dyskretności – nieodłączną część energii – obliczono poprzez czysto falową charakterystykę – częstotliwość y (E= cóż).

Jak wszystkie wielkie odkrycia nauk przyrodniczych, nowa doktryna światła miała fundamentalne znaczenie teoretyczne i epistemologiczne. Dawne stanowisko o ciągłości procesów naturalnych, które zostało gruntownie zachwiane przez M. Plancka, zostało przez Einsteina wyłączone ze znacznie szerszego zakresu zjawisk fizycznych.

Rozwijanie idei M. Plancka i A. Einsteina, francuskiego fizyka Ludwik de Broche w 1924 wysunął ideę falowych właściwości materii. W swojej pracy „Światło i materia” pisał o konieczności posługiwania się pojęciami falowymi i korpuskularnymi nie tylko zgodnie z naukami A. Einsteina w teorii światła, ale także w teorii materii.

L. de Broglie argumentował, że właściwości falowe, podobnie jak korpuskularne, są nieodłączne dla wszystkich rodzajów materii: elektronów, protonów, atomów, cząsteczek, a nawet ciał makroskopowych.

Według de Broglie’a każde ciało posiadające masę T, poruszać się z dużą prędkością V, fala odpowiada:

Właściwie podobny wzór był znany wcześniej, ale tylko w odniesieniu do kwantów światła – fotonów.

W 1926 austriacki fizyk E. Schrödingera odkrył równanie matematyczne określające zachowanie fal materii, tzw. równanie Schrödingera. Fizyk angielski P. Diraca podsumował to.

Odważna myśl L. de Broglie o uniwersalnym „dualizmie” cząstek i fal umożliwiła skonstruowanie teorii, za pomocą której można było ująć właściwości materii i światła w ich jedności. W tym przypadku kwanty światła stały się szczególnym momentem ogólnej struktury mikroświata.

Fale materii, które początkowo przedstawiano jako wizualnie rzeczywiste procesy falowe podobne do fal akustycznych, przybrały abstrakcyjną formę matematyczną i zostały otrzymane dzięki niemieckiemu fizykowi M. Bornu znaczenie symboliczne jako „fale prawdopodobieństwa”.

Jednak hipoteza de Broglie wymagała eksperymentalnego potwierdzenia. Najbardziej przekonującym dowodem na istnienie falowych właściwości materii było odkrycie dyfrakcji elektronów przez amerykańskich fizyków w 1927 roku K. Davissona I L. Ger- mierzyć. Następnie przeprowadzono eksperymenty mające na celu wykrycie dyfrakcji neutronów, atomów, a nawet cząsteczek. We wszystkich przypadkach wyniki w pełni potwierdziły hipotezę de Broglie. Jeszcze ważniejsze było odkrycie nowych cząstek elementarnych przewidywanych na podstawie układu wzorów rozwiniętej mechaniki falowej.

Uznanie dualizmu korpuskularno-falowego we współczesnej fizyce stało się powszechne. Każdy obiekt materialny charakteryzuje się obecnością zarówno właściwości korpuskularnych, jak i falowych.

Fakt, że ten sam obiekt pojawia się zarówno jako cząstka, jak i fala, zniszczył tradycyjne wyobrażenia.

Forma cząstki oznacza byt zawarty w małej objętości lub skończonym obszarze przestrzeni, podczas gdy fala rozprzestrzenia się po rozległych obszarach przestrzeni. W fizyce kwantowej te dwa opisy rzeczywistości wykluczają się wzajemnie, ale są równie niezbędne, aby w pełni opisać dane zjawiska.

Ostateczne ukształtowanie się mechaniki kwantowej jako spójnej teorii nastąpiło dzięki pracom niemieckiego fizyka V. Heisenberga, kto ustanowił zasadę nieoznaczoności? i duński fizyk N. Bora, który sformułował zasadę komplementarności, na podstawie której opisuje się zachowanie mikroobiektów.

Esencja relacje niepewności V. Heisenberga jest następująca. Załóżmy, że zadaniem jest określenie stanu poruszającej się cząstki. Gdyby można było skorzystać z praw mechaniki klasycznej, sytuacja byłaby prosta: wystarczyłoby wyznaczyć współrzędne cząstki i jej pęd (ilość ruchu). Ale praw mechaniki klasycznej nie można zastosować do mikrocząstek: niemożliwe jest nie tylko praktycznie, ale także w ogóle ustalenie z równą dokładnością położenia i wielkości ruchu mikrocząstki. Tylko jedną z tych dwóch właściwości można określić dokładnie. W swojej książce „Fizyka jądra atomowego” W. Heisenberg odkrywa treść relacji niepewności. On to pisze nigdy nie można dokładnie poznać obu par jednocześnie metry - współrzędne i prędkość. Nigdy nie można jednocześnie wiedzieć, gdzie znajduje się cząstka, jak szybko i w jakim kierunku się porusza. Jeżeli zostanie przeprowadzone doświadczenie, które pokaże dokładnie, gdzie w danym momencie znajduje się cząstka, wówczas ruch zostaje zakłócony do tego stopnia, że ​​cząstki nie można już później odnaleźć. I odwrotnie, przy dokładnym pomiarze prędkości niemożliwe jest określenie położenia cząstki.

Z punktu widzenia mechaniki klasycznej zależność niepewności wydaje się absurdalna. Aby lepiej ocenić obecną sytuację, musimy pamiętać, że my, ludzie, żyjemy w makrokosmosie i w zasadzie Nie jesteśmy w stanie zbudować modelu wizualnego, który byłby adekwatny do mikroświata. Zależność niepewności jest wyrazem niemożności obserwacji mikroświata bez jego zakłócania. Każda próba przedstawienia jasnego obrazu procesów mikrofizycznych musi opierać się na interpretacji korpuskularnej lub falowej. W opisie korpuskularnym dokonuje się pomiaru w celu uzyskania dokładnej wartości energii i wielkości ruchu mikrocząstki np. podczas rozpraszania elektronów. Przeciwnie, w eksperymentach mających na celu dokładne określenie położenia stosuje się wyjaśnienie falowe, zwłaszcza gdy elektrony przechodzą przez cienkie płytki lub podczas obserwacji odchylenia promieni.

Istnienie elementarnego kwantu działania stanowi przeszkodę w ustaleniu jednocześnie i z równą dokładnością wielkości, które są „kanonicznie powiązane”, tj. położenie i wielkość ruchu cząstek.

Podstawową zasadą mechaniki kwantowej, wraz z zależnością niepewności, jest zasada dodatkowy ness, na co N. Bohr podał następujące sformułowanie: „Pojęcia cząstek i fal uzupełniają się, a jednocześnie są ze sobą sprzeczne, są uzupełniającymi się obrazami tego, co się dzieje”1.

Sprzeczności we właściwościach falowo-cząsteczkowych mikroobiektów są wynikiem niekontrolowanego oddziaływania mikroobiektów i makrourządzeń. Istnieją dwie klasy urządzeń: w niektórych obiektach kwantowych zachowują się jak fale, w innych jak cząstki. W eksperymentach nie obserwujemy rzeczywistości jako takiej, a jedynie zjawisko kwantowe, w tym wynik interakcji urządzenia z mikroobiektem. M. Born w przenośni zauważył, że fale i cząstki są „projekcjami” rzeczywistości fizycznej na sytuację eksperymentalną.

Naukowiec badający mikroświat zmienia się w ten sposób z obserwatora w aktora, gdyż rzeczywistość fizyczna zależy od urządzenia, tj. ostatecznie od arbitralności obserwatora. Dlatego N. Bohr uważał, że fizyk nie zna samej rzeczywistości, a jedynie swój z nią kontakt.

Istotną cechą mechaniki kwantowej jest probabilistyczny charakter przewidywań zachowania mikroobiektów, który opisuje się za pomocą funkcji falowej E. Schrödingera. Funkcja falowa określa parametry przyszłego stanu mikroobiektu z różnym stopniem prawdopodobieństwa. Oznacza to, że przeprowadzając te same eksperymenty na tych samych obiektach, za każdym razem otrzymamy inne wyniki. Jednak niektóre wartości będą bardziej prawdopodobne niż inne, np. będzie dopiero wiadomo rozkład prawdopodobieństwa wartości.

Biorąc pod uwagę czynniki niepewności, komplementarności i prawdopodobieństwa, N. Bohr podał tzw. „kopenhaską” interpretację istoty teorii kwantów: „Wcześniej powszechnie uważano, że fizyka opisuje Wszechświat. Wiemy już, że fizyka opisuje tylko to, co możemy powiedzieć o Wszechświecie.”1

Stanowisko N. Bohra podzielali W. Heisenberg, M. Born, W. Pauli i wielu innych, mniej znanych fizyków. Zwolennicy kopenhaskiej interpretacji mechaniki kwantowej nie uznawali przyczynowości ani determinizmu w mikroświecie i wierzyli, że podstawą rzeczywistości fizycznej jest fundamentalna niepewność – indeterminizm.

Przedstawicielom szkoły kopenhaskiej ostro sprzeciwił się G.A. Lorentz, M. Planck, M. Laue, A. Einstein, P. Langevin i inni A. Einstein pisał o tym do M. Borna: „W naszym rozumieniu naukowym rozwinęliśmy się w antypody. Ty wierzysz w Boga grającego w kości, a ja wierzę w całkowitą legalność obiektywnej egzystencji… Jestem głęboko przekonany, że ostatecznie poprzestaną na teorii, w której nie prawdopodobieństwa, ale fakty będą w sposób naturalny podłączony”2. Sprzeciwiał się zasadzie nieoznaczoności, opowiadał się za determinizmem i rolą przypisywaną aktowi obserwacji w mechanice kwantowej. Dalszy rozwój fizyki pokazał, że rację miał Einstein, który uważał, że teoria kwantowa w dotychczasowej formie jest po prostu niekompletna: fakt, że fizycy nie potrafią jeszcze pozbyć się niepewności, nie świadczy o ograniczeniach metody naukowej, jak argumentował N. Bohr: ale tylko niekompletność mechaniki kwantowej. Einstein podawał coraz więcej nowych argumentów na poparcie swojego punktu widzenia.

Najbardziej znany jest tzw. paradoks Einsteina-Podolskiego-Rosena, czyli paradoks EPR, za pomocą którego chcieli udowodnić niekompletność mechaniki kwantowej. Paradoks jest eksperymentem myślowym: co by się stało, gdyby cząstka składająca się z dwóch protonów rozpadła się w taki sposób, że protony rozleciałyby się w przeciwnych kierunkach? Ze względu na wspólne pochodzenie ich właściwości są ze sobą powiązane lub, jak twierdzą fizycy, korelują ze sobą. Zgodnie z prawem zachowania pędu, jeśli jeden proton leci w górę, drugi musi lecieć w dół. Mierząc pęd jednego protonu, na pewno poznamy pęd drugiego, nawet jeśli przeleciał on na drugi koniec Wszechświata. Istnieje nielokalne połączenie między cząstkami, które Einstein nazwał „działaniem duchów na odległość”, w którym każda cząstka w danym momencie wie, gdzie znajduje się druga i co się z nią dzieje.

Paradoks EPR jest niezgodny z niepewnością postulowaną w mechanice kwantowej. Einstein uważał, że istnieją pewne ukryte parametry, których nie bierze się pod uwagę. Pytania: czy w mikroświecie istnieje determinizm i przyczynowość; Czy mechanika kwantowa jest już ukończona? to, czy istnieją ukryte parametry, których nie bierze pod uwagę, było przedmiotem debaty wśród fizyków od ponad pół wieku i znalazło rozstrzygnięcie na poziomie teoretycznym dopiero pod koniec XX wieku.

W 1964 r J. S. Bela uzasadnił stanowisko, według którego mechanika kwantowa przewiduje silniejszą korelację pomiędzy wzajemnie połączonymi cząstkami, niż to, o czym mówił Einstein.

Twierdzenie Bella stwierdza, że ​​jeśli istnieje jakiś obiektywny Wszechświat i jeśli równania mechaniki kwantowej są strukturalnie podobne do tego Wszechświata, to istnieje pewnego rodzaju nielokalne połączenie pomiędzy dwiema cząstkami, które kiedykolwiek się zetkną. Istotą twierdzenia Bella jest to, że nie ma izolowanych systemów: każda cząstka Wszechświata jest w „natychmiastowej” komunikacji ze wszystkimi innymi cząstkami. Cały system, nawet jeśli jego części są oddzielone ogromnymi odległościami i nie ma między nimi sygnałów, pól, sił mechanicznych, energii itp., funkcjonuje jako jeden system.

W połowie lat 80 A. Aspekt(Uniwersytet w Paryżu) przetestował to połączenie eksperymentalnie, badając polaryzację par fotonów emitowanych przez pojedyncze źródło w kierunku izolowanych detektorów. Porównując wyniki dwóch serii pomiarów stwierdzono między nimi zgodność. Z punktu widzenia znanego fizyka D. Boma, Doświadczenia A. Aspecta potwierdziły twierdzenie Bella i potwierdziły pozycje nielokalnych zmiennych ukrytych, których istnienie zakładał A. Einstein. W interpretacji mechaniki kwantowej D. Bohma nie ma niepewności co do współrzędnych cząstki i jej pędu.

Naukowcy zasugerowali, że komunikacja odbywa się poprzez przekazywanie informacji, których nośnikami są specjalne pola.

4.2.2. Genetyka fal

Odkrycia dokonane w mechanice kwantowej wywarły owocny wpływ nie tylko na rozwój fizyki, ale także innych dziedzin nauk przyrodniczych, przede wszystkim biologii, w ramach której rozwinęło się pojęcie genetyki falowej, czyli kwantowej.

Kiedy w 1962 roku J. Watson, A. Wilson i F. Crick otrzymali Nagrodę Nobla za odkrycie podwójnej helisy DNA niosącej informację dziedziczną, genetykom wydawało się, że główne problemy przekazywania informacji genetycznej są bliskie rozwiązania . Cała informacja zapisana jest w genach, których kombinacja w chromosomach komórkowych determinuje program rozwojowy organizmu. Zadanie polegało na rozszyfrowaniu kodu genetycznego, czyli całej sekwencji nukleotydów w DNA.

Rzeczywistość nie spełniła jednak oczekiwań naukowców. Po odkryciu struktury DNA i szczegółowym rozważeniu udziału tej cząsteczki w procesach genetycznych, główny problem zjawiska życia – mechanizmy jego reprodukcji – pozostał w zasadzie nierozwiązany. Odszyfrowanie kodu genetycznego umożliwiło wyjaśnienie syntezy białek. Klasyczni genetycy wyszli z faktu, że cząsteczki genetyczne, DNA, mają naturę materialną i działają jak substancja, reprezentując materialną matrycę, na której zapisany jest materialny kod genetyczny. Zgodnie z nim rozwija się organizm cielesny, materialny i materialny. Jednak kwestii, w jaki sposób czasoprzestrzenna struktura organizmu jest kodowana w chromosomach, nie można rozwiązać na podstawie wiedzy o sekwencji nukleotydów. Radzieccy naukowcy AA Liu Biszczewym I A.G. Gurwicz Już w latach 20. i 30. wyrażano pogląd, że traktowanie genów jako struktur czysto materialnych jest zdecydowanie niewystarczające do teoretycznego opisu fenomenu życia.

AA Lyubishchev w swojej pracy „O naturze czynników dziedzicznych” opublikowanej w 1925 roku napisał, że geny nie są ani fragmentami chromosomu, ani cząsteczkami enzymów autokatalitycznych, ani rodnikami, ani strukturą fizyczną. Uważał, że gen należy uznać za potencjalną substancję. Lepsze zrozumienie idei AA Lyubishcheva zachęca analogia cząsteczki genetycznej z zapisem muzycznym. Sam zapis muzyczny jest materialny i reprezentuje ikony na papierze, ale ikony te urzeczywistniają się nie w formie materialnej, ale w dźwiękach, które są falami akustycznymi.

Rozwijając te pomysły, A.G. Gurvich argumentował, że w genetyce „konieczne jest wprowadzenie pojęcia pola biologicznego, którego właściwości są formalnie zapożyczone z pojęć fizycznych”1. Główną ideą A.G. Gurvicha było to, że rozwój zarodka przebiega według z góry ustalonego programu i przybiera formy, które już istnieją w jego dziedzinie. Jako pierwszy wyjaśnił zachowanie elementów rozwijającego się organizmu jako całości w oparciu o koncepcje terenowe. To właśnie w polu zawarte są formy, jakie przyjmuje zarodek w trakcie rozwoju. Gurvich nazwał formę wirtualną, która w każdym momencie określa wynik procesu rozwoju, formą dynamicznie kształtowaną, wprowadzając tym samym element teleologii do pierwotnego sformułowania pola. Po opracowaniu teorii pola komórkowego rozszerzył ideę pola jako zasady regulującej i koordynującej proces embrionalny, także na funkcjonowanie organizmów. Po uzasadnieniu ogólnej idei dziedziny Gurvich sformułował ją jako uniwersalną zasadę biologii. Odkrył promieniowanie biofotonowe pochodzące z komórek.

Idee rosyjskich biologów A.A. Lyubishchev i A.G. Gurvich są gigantycznym osiągnięciem intelektualnym, wyprzedzającym swoją epokę. Istota ich myśli zawarta jest w triadzie:

    Geny są dualistyczne – są jednocześnie substancją i polem.

    Elementy pola chromosomów wyznaczają przestrzeń – czas organizmu – i w ten sposób kontrolują rozwój biosystemów.

    Geny pełnią funkcje estetyczno-wyobrażeniowe i regulujące mowę.

Idee te pozostawały niedoceniane aż do pojawienia się dzieł wiceprezes Kaznacheeva XX wieku, w którym eksperymentalnie potwierdzono przewidywania naukowców o występowaniu lewych form przekazu informacji w organizmach żywych. Kierunek naukowy w biologii reprezentowany przez szkołę V.P. Treasurer, powstał w wyniku licznych fundamentalnych badań nad tzw. lustrzanym efektem cytopatycznym, wyrażającym się w tym, że żywe komórki oddzielone szkłem kwarcowym, które nie przepuszcza ani jednej cząsteczki substancji, mimo to wymieniają informacje. Po pracy Kaznacheeva istnienie kanału fali znakowej między komórkami biosystemów nie było już wątpliwości.

Równolegle z eksperymentami V.P. Kaznacheeva, chińska badaczka Jiang Kanzhen przeprowadził serię supergenetycznych eksperymentów, które odzwierciedlały prekognicję GLIN. Lyubishchev i A.G. Gurwicz. Różnica między twórczością Jianga Kanzhena polega na tym, że przeprowadzał on eksperymenty nie na poziomie komórkowym, ale na poziomie organizmu. Wyszedł z faktu, że DNA – materiał genetyczny – istnieje w dwóch postaciach: pasywnej (w postaci DNA) i aktywnej (w postaci pola elektromagnetycznego). Pierwsza forma zachowuje kod genetyczny i zapewnia stabilność organizmu, natomiast druga jest w stanie go zmienić, oddziałując na niego sygnałami bioelektrycznymi. Chiński naukowiec zaprojektował sprzęt, który był w stanie odczytywać, przesyłać na odległość i wprowadzać falowe sygnały supergenetyczne z biosystemu dawcy do organizmu akceptora. W rezultacie stworzył niewyobrażalne hybrydy, „zakazane” przez oficjalną genetykę, która działa wyłącznie w oparciu o prawdziwe geny. Tak narodziły się chimery zwierzęce i roślinne: kury-kaczki; kukurydza, z kolb, z których wyrosły kłosy pszenicy itp.

Wybitny eksperymentator Jiang Kanzhen intuicyjnie rozumiał niektóre aspekty eksperymentalnej genetyki fal, którą faktycznie stworzył i wierzył, że nośnikami polowej informacji genetycznej było stosowane w jego sprzęcie promieniowanie elektromagnetyczne o ultrawysokiej częstotliwości, nie potrafił jednak podać teoretycznego uzasadnienia.

Po eksperymentalnej pracy V.P. Kaznacheeva i Jiang Kanzhenga, których nie dało się wytłumaczyć w kategoriach tradycyjnej genetyki, zaistniała pilna potrzeba teoretycznego opracowania modelu genomu falowego, w fizycznym, matematycznym i teoretycznym biologicznym zrozumieniu pracy chromosomu DNA w terenie i wymiary materiału.

Pierwsze próby rozwiązania tego problemu podjęli rosyjscy naukowcy P.P. Gariajew, A.A. Berezyna I AA Wasiliew, który postawił następujące zadania:

    pokazać możliwość dualistycznej interpretacji pracy genomu komórki na poziomie materii i pola w ramach modeli fizycznych i matematycznych;

    pokazać możliwość normalnego i „anomalnego” trybu działania genomu komórki za pomocą macierzy fantomowo-znakowych;

Znajdź eksperymentalne dowody na poprawność proponowanej teorii.

W ramach opracowanej przez nich teorii, zwanej genetyką falową, wysunięto, uzasadniono i potwierdzono eksperymentalnie kilka podstawowych zasad, które znacznie poszerzyły zrozumienie zjawiska życia i procesów zachodzących w materii ożywionej.

Geny to nie tylko struktury materialne, ale także matryce falowe, według których, niczym według szablonów, zbudowany jest organizm.

Wzajemne przekazywanie informacji między komórkami, które pomaga tworzyć organizm jako integralny system i korygować skoordynowane funkcjonowanie wszystkich układów organizmu, zachodzi nie tylko chemicznie - poprzez syntezę różnych enzymów i innych substancji „sygnałowych”. P.P. Gariajew zasugerował, a następnie udowodnił eksperymentalnie, że komórki, ich chromosomy, DNA, białka przekazują informacje za pomocą pól fizycznych - fal elektromagnetycznych, akustycznych i trójwymiarowych hologramów, odczytywanych za pomocą laserowego światła chromosomalnego i emitujących to światło, które przekształca się w fale radiowe i przekazuje dziedziczną nowe informacje w przestrzeni ciała. Genom organizmów wyższych uważany jest za komputer bioholograficzny, który tworzy czasoprzestrzenną strukturę biosystemów. Nośnikami matryc pola, na których zbudowany jest organizm, są czoło fal wyznaczane przez genogologramy oraz tzw. solitony na DNA – specjalny rodzaj pól akustycznych i elektromagnetycznych wytwarzanych przez aparat genetyczny samego organizmu i zdolnych do pośredniczenia w funkcjach wymiana strategicznych informacji regulacyjnych pomiędzy komórkami, tkankami i narządami biosystemu.

W genetyce falowej potwierdziły się idee Gurvicha – Lyubishcheva – Kaznacheeva – Jianga Kanzhena dotyczące poziomu pola informacji genowej. Inaczej mówiąc, przyjęty w elektrodynamice kwantowej dualizm łączącej jedności „fala – cząstka” czy „materia – pole”, okazał się mieć zastosowanie w biologii, co kiedyś przewidywał AG. Gurvicha i AA. Lubiszczow. Substancja genu i pole genu nie wykluczają się, lecz uzupełniają.

Materia żywa składa się z nieożywionych atomów i cząstek elementarnych, które łączą podstawowe właściwości fal i cząstek, ale te same właściwości są wykorzystywane przez biosystemy jako podstawa wymiany informacji o energii fal. Innymi słowy, cząsteczki genetyczne emitują pole informacyjno-energetyczne, w którym zakodowany jest cały organizm, jego ciało fizyczne i dusza.

Geny to nie tylko to, co składa się na tzw. genetykę kod, ale także wszystko inne, większość DNA, które kiedyś istniało uznano za pozbawione sensu.

Ale to właśnie ta duża część chromosomów jest analizowana w ramach genetyki falowej jako główna „inteligentna” struktura wszystkich komórek organizmu: „Niekodujące regiony DNA to nie tylko śmieci, ale struktury przeznaczone dla niektórych cel o niejasnym celu... niekodujące sekwencje DNA (które stanowią 95-99% genomu) stanowią strategiczną zawartość informacyjną chromosomów... Ewolucja biosystemów stworzyła teksty genetyczne i genom - biokomputer - biokomputer jako quasi-inteligentny „podmiot”, na swoim poziomie „czytający i rozumiejący” te „teksty”1. Ten składnik genomu, który nazywany jest supergeno-kontinuum, tj. supergen, zapewnia rozwój i życie ludzi, zwierząt, roślin, a także programuje naturalne umieranie. Nie ma ostrej i nie do pokonania granicy pomiędzy genami i supergenami; działają one jak jedna całość. Geny dostarczają materialnych „replik” w postaci RNA i białek, a supergeny przekształcają pola wewnętrzne i zewnętrzne, tworząc z nich struktury falowe, w których kodowana jest informacja. Wspólna cecha genetyczna ludzi, zwierząt, roślin i pierwotniaków polega na tym, że na poziomie białka warianty te są praktycznie takie same lub nieco różne u wszystkich organizmów i są kodowane przez geny, które stanowią zaledwie kilka procent całkowitej długości chromosomu. Różnią się jednak poziomem „śmieciowej części” chromosomów, która stanowi prawie całą ich długość.

Informacje własne chromosomów nie wystarczą do rozwoju ciało. Chromosomy są fizycznie odwrócone w pewnym wymiarze Chińska próżnia, która dostarcza głównej części informacji dotyczących rozwoju zarodka. Aparat genetyczny jest w stanie sam i przy pomocy próżni generuj struktury fal poleceń, takie jak hologramy, zapewniając wpływające na rozwój organizmu.

Istotne dla głębszego zrozumienia życia jako zjawiska kosmoplanetarnego były dane eksperymentalne uzyskane przez P.P. Gariajewa, który udowodnił niewystarczalność genomu komórki do pełnego odtworzenia programu rozwojowego organizmu w warunkach izolacji informacji biopola. Doświadczenie polegało na zbudowaniu dwóch komór, w każdej z nich stworzono wszystkie naturalne warunki do rozwoju kijanek z żabich jaj – niezbędny skład powietrza i wody, temperaturę, warunki oświetleniowe, muł stawowy itp. Jedyną różnicą było to, że jedna komora została wykonana z permalloju, materiału nieprzewodzącego fal elektromagnetycznych, a druga ze zwykłego metalu, który nie zakłóca fal. W każdej komorze umieszczono taką samą ilość zapłodnionych jaj żab. W wyniku eksperymentu w pierwszej komorze pojawiły się wszystkie dziwadła, które po kilku dniach padły, w drugiej w odpowiednim czasie wykluły się i normalnie rozwinęły kijanki, które później przekształciły się w żaby.

Oczywiste jest, że do normalnego rozwoju kijanek w pierwszej komorze brakowało im jakiegoś czynnika, który niósłby brakującą część informacji dziedzicznej, bez której organizm nie mógłby zostać „złożony” w całości. A ponieważ ściany pierwszej komory odcinały kijanki jedynie od promieniowania, które swobodnie przenikało do drugiej komory, naturalnym jest założenie, że filtrowanie lub zniekształcanie naturalnego tła informacyjnego powoduje deformację i śmierć zarodków. Oznacza to, że komunikacja struktur genetycznych z zewnętrznym polem informacyjnym jest z pewnością niezbędna do harmonijnego rozwoju organizmu. Zewnętrzne (egzobiologiczne) sygnały pola niosą dodatkową i być może główną informację do kontinuum genów Ziemi.

Teksty DNA i hologramy kontinuum chromosomalnego można odczytać w wielowymiarowej czasoprzestrzeni i semantyce opcje. Istnieją języki falowe genomu komórkowego, podobne do człowiek.

W genetyce falowej na szczególną uwagę zasługuje uzasadnienie jedności fraktalnej (powtarzającej się w różnych skalach) struktury sekwencji DNA i mowy ludzkiej. Fakt, że cztery litery alfabetu genetycznego (adenina, guanina, cytozyna, tymina) w tekstach DNA tworzą struktury fraktalne, odkryto już w 1990 roku i nie wywołał żadnej szczególnej reakcji. Jednak odkrycie genopodobnych struktur fraktalnych w ludzkiej mowie było zaskoczeniem zarówno dla genetyków, jak i lingwistów. Stało się oczywiste, że przyjęte i znane już porównanie DNA z tekstami, które po odkryciu jedności struktury fraktalnej i mowy ludzkiej miało charakter metaforyczny, jest w pełni uzasadnione.

Wraz z pracownikami Instytutu Matematycznego Rosyjskiej Akademii Nauk grupa P.P. Garyaeva rozwinął teorię fraktalnej reprezentacji języków naturalnych (ludzkich) i genetycznych. Praktyczne testowanie tej teorii w zakresie cech „mowy” DNA wykazało strategicznie poprawną orientację badań.

Podobnie jak w eksperymentach Jiang Kanzhen, grupa P.P. Garyaeva uzyskano efekt translacji i wprowadzenia falowej informacji supergenetycznej od dawcy do akceptora. Powstały urządzenia - generatory pól solitonowych, do których można było wprowadzać algorytmy mowy na przykład w języku rosyjskim lub angielskim. Takie struktury mowy zamieniły się w pola modulowane solitonem – analogi tych, którymi operują komórki w procesie komunikacji falowej. Organizm i jego aparat genetyczny „rozpoznają” takie „frazy falowe” jako własne i postępują zgodnie z zaleceniami mowy wprowadzanymi przez osobę z zewnątrz. Można było na przykład stworzyć pewne algorytmy mowy i werbalne, aby przywrócić nasiona pszenicy i jęczmienia uszkodzone przez promieniowanie. Co więcej, nasiona roślin „rozumiały” tę mowę, niezależnie od tego, w jakim języku była mówiona - rosyjskim, niemieckim czy angielskim. Eksperymenty przeprowadzono na dziesiątkach tysięcy komórek.

Aby przetestować skuteczność programów fal stymulujących wzrost w eksperymentach kontrolnych, do genomu rośliny wprowadzono bezsensowne pseudokody mowy za pomocą generatorów, które nie miały wpływu na metabolizm rośliny, podczas gdy semantyczne wejście do warstw semantycznych genomu rośliny biopola dało dramatyczny, ale efekt krótkoterminowy znaczne przyspieszenie wzrostu.

Rozpoznawanie mowy ludzkiej przez genomy roślin (niezależnie od języka) jest w pełni zgodne ze stanowiskiem genetyki językowej o istnieniu w genomie biosystemów na wczesnych etapach ich ewolucji protojęzyka, wspólnego dla wszystkich organizmów i zachowanego w ogólnej strukturze puli genów Ziemi. Można tu dostrzec zgodność z ideami klasyka lingwistyki strukturalnej N. Chomsky'ego, który uważał, że wszystkie języki naturalne mają głęboką wrodzoną gramatykę uniwersalną, niezmienną dla wszystkich ludzi i prawdopodobnie dla ich własnych struktur supergenetycznych.

4.2.3. Atomistyczna koncepcja budowy materii

Atomistyczna hipoteza budowy materii wysunięta w starożytności Demokryt, odrodziło się w XVIII wieku. chemik J. Daltona, który przyjął masę atomową wodoru jako jeden i porównał z nią masy atomowe innych gazów. Dzięki pracom J. Daltona zaczęto badać właściwości fizyczne i chemiczne atomu. W 19-stym wieku DI. Mendelejew skonstruował układ pierwiastków chemicznych na podstawie ich masy atomowej.

W fizyce koncepcja atomów jako ostatnich tygodniowych elementów strukturalnych materii wywodzi się z chemii. Właściwe badania fizyczne atomu rozpoczęły się pod koniec XIX wieku, kiedy francuski fizyk AA Becquerel Odkryto zjawisko promieniotwórczości, które polega na samoistnym przekształceniu atomów niektórych pierwiastków w atomy innych pierwiastków. Badanie radioaktywności kontynuowali francuscy fizycy i małżonkowie Pierre I Maria Curie, który odkrył nowe pierwiastki promieniotwórcze polon i rad.

Dzięki odkryciu historia badań nad budową atomu rozpoczęła się w 1897 roku J. Thomsona elektron - ujemnie naładowana cząstka wchodząca w skład wszystkich atomów. Ponieważ elektrony mają ładunek ujemny, a atom jako całość jest elektrycznie obojętny, założono, że oprócz elektronu istnieje cząstka naładowana dodatnio. Według obliczeń masa elektronu wynosiła 1/1836 masy dodatnio naładowanej cząstki – protonu.

Opierając się na ogromnej, w porównaniu z elektronem, masie dodatnio naładowanej cząstki, angielski fizyk W. Thomsona(Lord Kelwin) zaproponował w 1902 roku pierwszy model atomu - ładunek dodatni jest rozłożony na dość dużej powierzchni, a elektrony są w nim przeplatane, niczym „rodzynki w budyniu”. Pomysł ten został opracowany J. Thomsona. Model atomu J. Thomsona, nad którym pracował prawie 15 lat, nie mógł oprzeć się eksperymentalnej weryfikacji.

W 1908 r E. Marsdena I X . Geigera, Współpracownicy E. Rutherforda przeprowadzili eksperymenty z przejściem cząstek alfa przez cienkie płytki ze złota i innych metali i odkryli, że prawie wszystkie z nich przeszły przez płytkę tak, jakby nie było żadnej przeszkody, a tylko 1/10 000 z nich doznało silnego odchylenia. Model J. Thomsona nie potrafił tego wyjaśnić, ale E. Rutherford znalazł wyjście. Zwrócił uwagę na fakt, że większość cząstek odchylana jest pod małym kątem, a niewielka część – do 150°. E. Rutherford doszedł do wniosku, że trafili na jakąś przeszkodę, którą jest jądro atomu - dodatnio naładowana mikrocząstka, której rozmiar (10-12 cm) jest bardzo mały w porównaniu z rozmiarem atomu ( 10-8 cm), ale skupia się prawie wyłącznie na masie atomu.

Model atomu, zaproponowany przez E. Rutherforda w 1911 r., przypominał układ słoneczny: w centrum znajduje się jądro atomowe, a wokół niego poruszają się po orbitach elektrony.

Jądro ma ładunek dodatni, a elektrony mają ładunek ujemny. Zamiast sił grawitacyjnych działających w Układzie Słonecznym, w atomie działają siły elektryczne. Ładunek elektryczny jądra atomu, liczbowo równy liczbie seryjnej w układzie okresowym Mendelejewa, jest równoważony sumą ładunków elektronów - atom jest elektrycznie obojętny.

Nierozwiązywalną sprzecznością tego modelu było to, że elektrony, aby nie utracić stabilności, muszą poruszać się po jądrze. Jednocześnie, zgodnie z prawami elektrodynamiki, muszą emitować energię elektromagnetyczną. Ale w tym przypadku elektrony bardzo szybko straciłyby całą swoją energię i spadłyby na jądro.

Następna sprzeczność wiąże się z faktem, że widmo emisyjne elektronu musi być ciągłe, gdyż elektron zbliżając się do jądra zmieniałby swoją częstotliwość. Doświadczenie pokazuje, że atomy emitują światło tylko o określonych częstotliwościach. Dlatego widma atomowe nazywane są widmami liniowymi. Innymi słowy, planetarny model atomu Rutherforda okazał się niezgodny z elektrodynamiką J. C. Maxwella.

W 1913 roku wielki duński fizyk N. Bor zastosował zasadę kwantyzacji przy rozwiązywaniu problemu budowy atomu i charakterystyki widm atomowych.

Model atomu N. Bohra opierał się na modelu planetarnym E. Rutherforda i opracowanej przez niego kwantowej teorii budowy atomu. N. Bohr wysunął hipotezę dotyczącą budowy atomu, opartą na dwóch postulatach całkowicie niezgodnych z fizyką klasyczną:

1) w każdym atomie jest ich kilka stacjonarne z na stojąco(w języku modelu planetarnego kilka stacjonarnych orbit) elektronów, po których może istnieć elektron, nie promieniuje;

2) kiedy przemiana elektron z jednego stanu stacjonarnego do innego atomu emituje Lub pochłania część energii.

Postulaty Bohra wyjaśniają stabilność atomów: elektrony w stanach stacjonarnych nie emitują energii elektromagnetycznej bez przyczyny zewnętrznej. Staje się jasne, dlaczego atomy pierwiastków chemicznych nie emitują promieniowania, jeśli ich stan się nie zmienia. Wyjaśnione są także widma liniowe atomów: każda linia widma odpowiada przejściu elektronu z jednego stanu do drugiego.

Teoria atomu N. Bohra umożliwiła dokładny opis atomu wodoru, składającego się z jednego protonu i jednego elektronu, co dość dobrze zgadzało się z danymi eksperymentalnymi. Dalsze rozszerzenie teorii na atomy i cząsteczki wieloelektronowe napotkało trudności nie do pokonania. Im bardziej teoretycy próbowali opisać ruch elektronów w atomie i określić ich orbity, tym większa rozbieżność między wynikami teoretycznymi a danymi eksperymentalnymi. Jak stało się jasne w trakcie rozwoju teorii kwantowej, rozbieżności te wiązały się głównie z właściwościami falowymi elektronu. Długość fali elektronu poruszającego się w atomie wynosi około 10-8 cm, tj. jest tego samego rzędu co wielkość atomu. Ruch cząstki należącej do dowolnego układu można opisać z wystarczającą dokładnością jako mechaniczny ruch punktu materialnego po określonej orbicie (trajektorii) tylko wtedy, gdy długość fali cząstki jest znikoma w porównaniu z rozmiarem układu. Innymi słowy, należy to wziąć pod uwagę elektron nie jest punktem ani bryłą, ma strukturę wewnętrzną, które mogą się różnić w zależności od jego stanu. Jednak szczegóły wewnętrznej struktury elektronu nie są znane.

W związku z tym zasadniczo niemożliwe jest dokładne opisanie budowy atomu w oparciu o ideę orbit elektronów punktowych, ponieważ takie orbity w rzeczywistości nie istnieją. Elektrony i ich ładunki, ze względu na swój falowy charakter, są niejako rozsmarowane po całym atomie, ale nie równomiernie, ale w taki sposób, że w niektórych punktach uśredniona w czasie gęstość ładunku elektronów jest większa, a w innych mniejsza .

Opis rozkładu gęstości ładunku elektronów podano w mechanice kwantowej: gęstość ładunku elektronów w pewnych punktach daje maksimum. Krzywa łącząca punkty o maksymalnej gęstości nazywana jest formalnie orbitą elektronową. Trajektorie obliczone w teorii N. Bohra dla jednoelektronowego atomu wodoru pokrywały się z krzywymi maksymalnej średniej gęstości ładunku, co oznaczało zgodność z danymi eksperymentalnymi.

Teoria N. Bohra stanowi niejako granicę pierwszego etapu rozwoju fizyki współczesnej. Jest to najnowsza próba opisu budowy atomu oparta na fizyce klasycznej, uzupełniona jedynie niewielką liczbą nowych założeń. Postulaty wprowadzone przez Bohra wyraźnie to pokazały fizyka klasyczna nie potrafi wytłumaczyć nawet najprostszych eksperymentów z tym związanych struktura atomu. Postulaty obce fizyce klasycznej naruszały jej integralność, ale umożliwiały wyjaśnienie jedynie niewielkiego zakresu danych doświadczalnych.

Wydawało się, że postulaty N. Bohra odzwierciedlają pewne nowe, nieznane właściwości materii, ale tylko częściowo. Odpowiedzi na te pytania uzyskano w wyniku opracowania mechanika kwantowa. Ujawniło się, ten model atomowy N. Bora nie należy rozumieć dosłownie, Jak To było najpierw. Procesy w atom zasadniczo to jest zabronione wizualnie przedstawić to w formie mechanicznej niebo modele przez analogię Z wydarzenia w makrokosmos. Nawet nie rozumiem Tia przestrzeni i czasu w istniejącym makrokosmos formularz okazały się nieodpowiednie do opisu zjawisk mikrofizycznych. Atom fizyków teoretycznych stawał się coraz większy abstrakcyjnie nieobserwowalna suma równań.

4.2.4. Cząstki elementarne i kwarkowy model atomu

Dalszy rozwój idei atomizmu wiązał się z badaniem cząstek elementarnych. Cząstki tworzące wcześniej „niepodzielny” atom nazywane są elementarnymi. Należą do nich również cząstki, które powstają w warunkach eksperymentalnych przy potężnych akceleratorach. Obecnie odkryto ponad 350 mikrocząstek.

Termin „cząstka elementarna” pierwotnie oznaczało najprostsze cząstki, które nie ulegają dalszemu rozkładowi na nic, leżące u podstaw jakichkolwiek formacji materialnych. Później fizycy zrealizowali całą konwencję terminu „elementarny” w odniesieniu do mikroobiektów. Teraz nie ma wątpliwości, że cząstki mają taką czy inną strukturę, niemniej jednak historycznie ustalona nazwa nadal istnieje.

Główne cechy cząstek elementarnych to masa, ładunek, średni czas życia, spin i liczby kwantowe.

Masa spoczynkowa cząstki elementarne określa się w stosunku do masy spoczynkowej elektronu. Istnieją cząstki elementarne, które nie mają masy spoczynkowej - fotony. Pozostałe cząstki według tego kryterium dzielą się na: leptony- cząstki lekkie (elektron i trino); mezony - cząstki średnie o masach od jednego do tysiąca elektronów; bariony- ciężkie cząstki, których masa przekracza masę tysiąca elektronów, do których zaliczają się protony, neutrony, hiperony i wiele rezonansów.

Ładunek elektryczny to kolejna ważna cecha cząstek elementarnych. Wszystkie znane cząstki mają ładunek dodatni, ujemny lub zerowy. Każdej cząstce, z wyjątkiem fotonu i dwóch mezonów, odpowiadają antycząstki o przeciwnych ładunkach. W 1967 amerykański fizyk M. Gell- Manna wysunąć hipotezę o istnieniu kwarków – cząstek o ułamkowym ładunku elektrycznym.

Ze względu na czas życia cząstki dzielą się na stabilny I nietrwały nowy Istnieje pięć stabilnych cząstek: foton, dwa rodzaje neutrin, elektron i proton. W budowie makrociał najważniejszą rolę odgrywają cząstki stabilne. Wszystkie inne cząstki są niestabilne, istnieją około 10-10 - 10-24 , po czym się rozpadają.

Oprócz ładunku, masy i czasu życia cząstki elementarne opisywane są także przez pojęcia, które nie mają analogii w fizyce klasycznej: pojęcie "kręcić się", lub wewnętrzny moment pędu mikrocząstki oraz koncepcja "liczby kwantowe la", wyrażający stan cząstek elementarnych.

Według współczesnych koncepcji wszystkie cząstki elementarne dzielą się na dwie klasy: fermiony(nazwany na cześć E. Fermiego) i bozony(nazwany na cześć S. Bose).

Fermiony obejmują kwarki i leptony, a bozony obejmują kwanty pola (fotony, bozony wektorowe, gluony, grawityny i grawitony). Te cząstki są brane pod uwagę naprawdę elementarne te. dalej nierozkładalny. Pozostałe cząstki są klasyfikowane jako warunkowo podstawowy, te. cząstki złożone utworzone z kwarków i odpowiadających im kwantów pola. Fermiony uzupełnić substancję bozony niosą interakcja.

Cząstki elementarne uczestniczą we wszystkich typach znanych oddziaływań. W przyrodzie występują cztery rodzaje podstawowych oddziaływań: silne, elektromagnetyczne, słabe i grawitacyjne.

Silna interakcja zachodzi na poziomie jąder atomowych i reprezentuje wzajemne przyciąganie się ich części składowych. Działa w odległości ok. 10-13 cm, w pewnych warunkach silne oddziaływanie bardzo mocno wiąże cząstki, w wyniku czego powstają układy materialne o dużej energii wiązania - jądra atomowe. Z tego powodu jądra atomów są bardzo stabilne i trudne do zniszczenia.

Oddziaływanie elektromagnetyczne około tysiąc razy słabszy od silnego, ale o znacznie większym zasięgu. Ten typ interakcji jest charakterystyczny dla cząstek naładowanych elektrycznie. Nośnikiem oddziaływania elektromagnetycznego jest foton nie posiadający ładunku – kwant pola elektromagnetycznego. W procesie oddziaływania elektromagnetycznego elektrony i jądra atomowe łączą się w atomy, a atomy w cząsteczki. W pewnym sensie ta interakcja ma fundamentalne znaczenie w chemii i biologii.

Słaby interakcja prawdopodobnie pomiędzy różnymi cząsteczkami. Rozciąga się na odległość rzędu 10-15-10-22 cm i wiąże się głównie z rozpadem cząstek, np. z przemianą neutronu w proton, elektron i antyneutrino zachodzącą w jądrze atomowym. Według obecnego stanu wiedzy większość cząstek jest niestabilna właśnie ze względu na słabe oddziaływanie.

Oddziaływanie grawitacyjne - najsłabszy, nie brany pod uwagę w teorii cząstek elementarnych, gdyż przy charakterystycznych odległościach około 10-13 cm daje niezwykle małe efekty. Jednak przy bardzo małych odległościach (rzędu 10–33 cm) i przy bardzo wysokich energiach grawitacja ponownie staje się znacząca. Tutaj zaczynają pojawiać się niezwykłe właściwości próżni fizycznej. Superciężkie cząstki wirtualne tworzą wokół siebie zauważalne pole grawitacyjne, które zaczyna zniekształcać geometrię przestrzeni. W skali kosmicznej oddziaływanie grawitacyjne ma kluczowe znaczenie. Jego zakres działania nie jest ograniczony.

Czas, w którym następuje przemiana cząstek elementarnych, zależy od siły oddziaływania. Reakcje jądrowe związane z oddziaływaniami silnymi zachodzą w ciągu 10-24-10-23 s. Jest to w przybliżeniu najkrótszy przedział czasu, w którym cząstka rozpędzona do dużych energii, do prędkości bliskiej prędkości światła, przechodzi przez cząstkę elementarną o wielkości około 10-13 cm. Zmiany spowodowane oddziaływaniami elektromagnetycznymi zachodzą w ciągu 10-19-10-21 s, a słabe (np. rozpad cząstek elementarnych) - głównie w ciągu 10-10 s.

Już w czasie różnych przemian można ocenić siłę oddziaływań z nimi związanych.

Wszystkie cztery interakcje są konieczne i wystarczające do zbudowania zróżnicowanego świata.

Bez silnych oddziaływań nie istniałyby jądra atomowe, a gwiazdy i Słońce nie byłyby w stanie wytwarzać ciepła i światła za pomocą energii jądrowej.

Bez oddziaływań elektromagnetycznych nie byłoby atomów, cząsteczek, obiektów makroskopowych, a także ciepła i światła.

Bez słabych oddziaływań reakcje jądrowe w głębi Słońca i gwiazd nie byłyby możliwe, nie doszłoby do wybuchów supernowych, a ciężkie pierwiastki niezbędne do życia nie mogłyby rozprzestrzeniać się po całym Wszechświecie.

Bez oddziaływania grawitacyjnego nie tylko nie byłoby galaktyk, gwiazd, planet, ale cały Wszechświat nie mógłby ewoluować, ponieważ grawitacja jest czynnikiem jednoczącym, który zapewnia jedność Wszechświata jako całości i jego ewolucję.

Współczesna fizyka doszła do wniosku, że wszystkie cztery podstawowe interakcje niezbędne do stworzenia złożonego i różnorodnego świata materialnego z cząstek elementarnych można uzyskać w wyniku jednej fundamentalnej interakcji - supersiły. Najbardziej uderzającym osiągnięciem był dowód, że przy bardzo wysokich temperaturach (lub energiach) wszystkie cztery oddziaływania łączą się w jedno.

Przy energii 100 GeV (100 miliardów elektronowoltów) siły elektromagnetyczne i słabe łączą się. Temperatura ta odpowiada temperaturze Wszechświata 10 – 10 s po Wielkim Wybuchu. Przy energii 1015 GeV łączy je silne oddziaływanie, a przy energii 1019 GeV następuje kombinacja wszystkich czterech oddziaływań.

Założenie to ma charakter czysto teoretyczny, ponieważ nie można go zweryfikować eksperymentalnie. Idee te pośrednio potwierdzają dane astrofizyczne, które można uznać za materiał eksperymentalny zgromadzony przez Wszechświat.

Postępy w dziedzinie badań cząstek elementarnych przyczyniły się do dalszego rozwoju koncepcji atomizmu. Obecnie uważa się, że spośród wielu cząstek elementarnych możemy wyróżnić 12 cząstek elementarnych i taką samą liczbę antycząstek 1. Sześć cząstek to kwarki o egzotycznych nazwach: „górny”, „dolny”, „czarowany”, „dziwny”, „prawdziwy”, „cudowny”. Pozostałe sześć to leptony: elektron, mion, cząstka tau i odpowiadające im neutrina (elektron, mion, neutrino taonowe).

Te 12 cząstek jest pogrupowanych w trzy generacje, z których każda składa się z czterech członków.

W pierwszej generacji występują kwarki „górne” i „dolne”, elektron i neutrino elektronowe.

W drugiej generacji występują kwarki „czarujące” i „dziwne”, miony i neutrina mionowe.

W trzeciej generacji - „prawdziwe” i „cudowne” kwarki i cząstki tau wraz z ich neutrinami.

Zwykła materia składa się z cząstek pierwszej generacji.

Zakłada się, że pozostałe generacje można wytworzyć sztucznie w akceleratorach cząstek naładowanych.

Wykorzystując model kwarkowy, fizycy opracowali proste i eleganckie rozwiązanie problemu budowy atomu.

Każdy atom składa się z ciężkiego jądra (silnie związanego polami gluonowymi protonów i neutronów) oraz powłoki elektronowej. Liczba protonów w jądrze jest równa liczbie porządkowej pierwiastka w układzie okresowym pierwiastków chemicznych D.I. Mendelejew. Proton ma dodatni ładunek elektryczny, masę 1836 razy większą od masy elektronu, wymiary rzędu 10 - 13 cm, ładunek elektryczny neutronu wynosi zero. Proton, zgodnie z hipotezą kwarkową, składa się z dwóch kwarków „górnych” i jednego „dolnego”, a neutron – z jednego kwarku „górnego” i dwóch „dolnych”. Nie można ich sobie wyobrazić jako solidnej kuli, raczej przypominają chmurę o niewyraźnych granicach, złożoną z wirtualnych cząstek, które rodzą się i znikają.

Wciąż pojawiają się pytania o pochodzenie kwarków i leptonów, czy są one głównymi „elementami budulcowymi” przyrody i jak bardzo są fundamentalne. Odpowiedzi na te pytania szuka się we współczesnej kosmologii. Duże znaczenie ma badanie narodzin cząstek elementarnych z próżni, budowa modeli pierwotnej syntezy jądrowej, która dała początek pewnym cząstkom w momencie narodzin Wszechświata.

4.2.5. Fizyczna próżnia

Próżniowo przetłumaczone z łaciny ( próżnia ) oznacza pustkę.

Już w starożytności stawiano pytanie, czy przestrzeń kosmiczna jest pusta, czy wypełniona jakimś materialnym środowiskiem, czymś odmiennym od pustki.

Zgodnie z filozoficzną koncepcją wielkiego starożytnego filozofa greckiego Demokryt, Wszystkie substancje składają się z cząstek, pomiędzy którymi znajduje się pustka. Ale zgodnie z filozoficzną koncepcją innego, równie znanego starożytnego filozofa greckiego Ari Stotel, Nie ma najmniejszego miejsca na świecie, w którym nie byłoby „nic”. Ośrodek ten, przenikający wszystkie przestrzenie Wszechświata, nazwano eterem.

Pojęcie „eteru” weszło do nauki europejskiej. Wielki Newton rozumiał, że prawo powszechnego ciążenia będzie miało sens, jeśli przestrzeń ma rzeczywistość fizyczną, tj. jest ośrodkiem posiadającym właściwości fizyczne. Pisał: „Pomysł, że... jedno ciało mogłoby oddziaływać na drugie poprzez pustkę na odległość, bez udziału czegoś, co przenosiłoby działanie i siłę z jednego ciała na drugie, wydaje mi się absurdalny”1.

W fizyce klasycznej nie było danych eksperymentalnych potwierdzających istnienie eteru. Nie było jednak danych, które by temu zaprzeczały. Autorytet Newtona przyczynił się do tego, że eter zaczęto uważać za najważniejsze pojęcie w fizyce. Pojęcie „eteru” zaczęło obejmować wszystko, co zostało spowodowane siłami grawitacyjnymi i elektromagnetycznymi. Ponieważ jednak przed pojawieniem się fizyki atomowej praktycznie nie badano innych podstawowych interakcji, zaczęto wyjaśniać wszelkie zjawiska i procesy za pomocą eteru.

Eter miał zapewniać działanie prawa powszechnego ciążenia; eter okazał się ośrodkiem, przez który przemieszczają się fale świetlne; eter był odpowiedzialny za wszelkie przejawy sił elektromagnetycznych. Rozwój fizyki zmusił nas do nadawania eterowi coraz bardziej sprzecznych właściwości.

Eksperyment Michelsona, największy ze wszystkich „negatywnych” eksperymentów w historii nauki, doprowadził do wniosku, że hipoteza o stacjonarnym eterze świata, z którą wiązała wielkie nadzieje klasyczna fizyka, jest błędna. Po rozważeniu wszystkich założeń dotyczących eteru od czasów Newtona do początków XX wieku, A. Einstein podsumował wyniki w swojej pracy „Ewolucja fizyki”: „Wszystkie nasze próby urzeczywistnienia eteru zawiodły. Nie odkrył ani swojej budowy mechanicznej, ani absolutnego ruchu. Ze wszystkich właściwości eteru nic nie pozostało... Wszelkie próby odkrycia właściwości eteru prowadziły do ​​trudności i sprzeczności. Po tylu niepowodzeniach przychodzi moment, w którym należy całkowicie zapomnieć o audycji i starać się nigdy więcej o niej nie wspominać.”

W szczególnej teorii względności odrzucono pojęcie „eteru”.

W ogólnej teorii względności przestrzeń uznawano za ośrodek materialny oddziałujący z ciałami posiadającymi masy grawitacyjne. Sam twórca ogólnej teorii względności uważał, że jakieś wszechobecne środowisko materialne musi nadal istnieć i posiadać pewne właściwości. Po opublikowaniu prac z ogólnej teorii względności Einstein wielokrotnie wracał do koncepcji „eteru” i uważał, że „w fizyce teoretycznej nie da się obejść bez eteru, czyli kontinuum obdarzonego właściwościami fizycznymi”.

Jednak pojęcie „eteru” należało już do historii nauki, nie było do niego powrotu, a „kontinuum obdarzone właściwościami fizycznymi” nazywano próżnią fizyczną.

We współczesnej fizyce uważa się, że rolę podstawowej materialnej podstawy świata pełni próżnia fizyczna, będąca uniwersalnym ośrodkiem przenikającym całą przestrzeń. Próżnia fizyczna to ośrodek ciągły, w którym nie ma cząstek materii ani pola, a jednocześnie jest to obiekt fizyczny, a nie „nic” pozbawione jakichkolwiek właściwości. Próżni fizycznej nie obserwuje się bezpośrednio, w eksperymentach obserwuje się jedynie przejaw jej właściwości.

Praca ma fundamentalne znaczenie w rozwiązywaniu problemów związanych z próżnią P. Diraca. Przed ich pojawieniem się wierzono, że próżnia to czyste „nic”, które bez względu na to, jakim przekształceniom ulegnie, nie jest w stanie się zmienić. Teoria Diraca otworzyła drogę do przekształceń próżni, w których dawne „nic” zamieniłoby się w wiele par „cząstka-antycząstka”.

Próżnia Diraca to morze elektronów o energii ujemnej jako jednorodne tło, które nie wpływa na zachodzenie w niej procesów elektromagnetycznych. Nie obserwujemy elektronów o energii ujemnej właśnie dlatego, że tworzą one ciągłe, niewidzialne tło, na którym rozgrywają się wszystkie wydarzenia na świecie. Można zaobserwować jedynie zmiany stanu próżni, jej „zakłócenia”.

Kiedy bogaty w energię kwant światła – foton – dostanie się do morza elektronów, powoduje zaburzenie i elektron o energii ujemnej może przeskoczyć do stanu o energii dodatniej, tj. będzie obserwowany jako wolny elektron. Następnie w morzu elektronów ujemnych powstaje „dziura” i rodzi się para: elektron + dziura.

Początkowo zakładano, że dziurami w próżni Diraca są protony, jedyne znane wówczas cząstki elementarne posiadające ładunek przeciwny do elektronu. Jednak ta hipoteza nie miała przetrwać: w eksperymencie

Nikt nigdy nie zaobserwował anihilacji elektronu z protonem.

Kwestię rzeczywistego istnienia i fizycznego znaczenia dziur rozwiązał w 1932 roku amerykański fizyk K.A. Andersena, zajmuje się fotografowaniem śladów cząstek przybywających z kosmosu w polu magnetycznym. Odkrył w promieniach kosmicznych ślad nieznanej wcześniej cząstki, identycznej pod każdym względem z elektronem, ale posiadającej ładunek przeciwnego znaku. Cząstkę tę nazwano pozytonem. Zbliżając się do elektronu, pozyton anihiluje wraz z nim na dwa wysokoenergetyczne fotony (kwanty gamma), których konieczność określają prawa zachowania energii i pędu:

Następnie okazało się, że prawie wszystkie cząstki elementarne (nawet te pozbawione ładunków elektrycznych) mają swoje „lustrzane” odpowiedniki – antycząstki, które mogą anihilować z nimi. Jedynymi wyjątkami jest kilka prawdziwie neutralnych cząstek, takich jak fotony, które są identyczne ze swoimi antycząstkami.

Wielką zasługą P. Diraca było opracowanie relatywistycznej teorii ruchu elektronów, która przewidywała powstanie pozytonu, anihilację i narodziny par elektron-pozyton z próżni. Stało się jasne, że próżnia ma złożoną strukturę, z której mogą rodzić się pary: cząstka + antycząstka. Eksperymenty na akceleratorach potwierdziły to założenie.

Jedną z cech próżni jest obecność w niej pól o energii równej zeru i niezawierających cząstek rzeczywistych. Powstaje pytanie: jak może istnieć pole elektromagnetyczne bez fotonów, pole elektronowo-pozytonowe bez elektronów i pozytonów itp.

Aby wyjaśnić oscylacje pola punktu zerowego w próżni, wprowadzono pojęcie cząstki wirtualnej (możliwej) - cząstki o bardzo krótkim czasie życia rzędu 10 - 21 - 10-24 s. To wyjaśnia, dlaczego cząstki – kwanty odpowiednich pól – nieustannie rodzą się i znikają w próżni. W zasadzie nie można wykryć pojedynczych cząstek wirtualnych, ale ich ogólny wpływ na zwykłe mikrocząstki wykrywa się eksperymentalnie. Fizycy uważają, że absolutnie wszystkie reakcje, wszystkie interakcje pomiędzy rzeczywistymi cząstkami elementarnymi zachodzą przy nieodzownym udziale wirtualnego tła próżniowego, na które wpływają również cząstki elementarne. Zwykłe cząstki dają początek cząstkom wirtualnym. Na przykład elektrony stale emitują i natychmiast absorbują wirtualne fotony.

Dalsze badania z zakresu fizyki kwantowej poświęcone były badaniu możliwości pojawienia się rzeczywistych cząstek z próżni, czego teoretyczne uzasadnienie podano E. Schrödinge rum w 1939

Obecnie koncepcja próżni fizycznej jest najpełniej rozwinięta w pracach Akademika Rosyjskiej Akademii Nauk Przyrodniczych ŻOŁNIERZ AMERYKAŃSKI. Shipova1, jest dyskusyjna: są zarówno zwolennicy, jak i przeciwnicy jego teorii.

W 1998 r. G.I. Shipov opracował nowe podstawowe równania opisujące strukturę próżni fizycznej. Równania te stanowią układ nieliniowych równań różniczkowych pierwszego rzędu, który obejmuje zgeometryzowane równania Heisenberga, zgeometryzowane równania Einsteina i zgeometryzowane równania Yanga-Millsa. Przestrzeń - czas w teorii G.I. Shipov jest nie tylko zakrzywiony, jak w teorii Einsteina, ale także skręcony, jak w geometrii Riemanna-Cartana. Francuski matematyk Eli Carton jako pierwszy wyraził pogląd, że pola generowane przez obrót powinny istnieć w przyrodzie. Pola te nazywane są polami skrętnymi. Aby uwzględnić skręcenie przestrzeni G.I. Shipov wprowadził do zgeometryzowanych równań zbiór współrzędnych kątowych, co umożliwiło wykorzystanie metryki kątowej w teorii próżni fizycznej, która wyznacza kwadrat nieskończenie małego obrotu czterowymiarowego układu odniesienia.

Dodanie współrzędnych obrotowych, za pomocą których opisuje się pole torsyjne, doprowadziło do rozszerzenia zasady względności na pola fizyczne: wszystkie pola fizyczne zawarte w równaniach próżni mają charakter względny.

Równania próżni, po odpowiednich uproszczeniach, prowadzą do równań i zasad teorii kwantowej. Uzyskana w ten sposób teoria kwantowa okazuje się być prawdziwa deterministyczny Noe, chociaż probabilistyczna interpretacja zachowania obiektów kwantowych pozostaje nieunikniona. Cząstki stanowią graniczny przypadek formacji czysto polowej, gdy masa (lub ładunek) tej formacji ma tendencję do stałej wartości. W tym ograniczającym przypadku zachodzi dualizm cząstkowo-falowy. Ponieważ nie bierze się pod uwagę względnego charakteru pól fizycznych związanych z rotacją, To teoria kwantów nie jest kompletna, co potwierdza założenia A. Einsteina, że ​​„doskonalszą teorię kwantową można znaleźć rozszerzając zasadę względności”2.

Równania próżni Shilova opisują zakrzywioną i skręcony czasoprzestrzeń, interpretowaną jako inteligentne wzbudzenia próżniowe w stanie wirtualnym.

W stanie podstawowym próżnia absolutna ma zerowe średnie wartości momentu pędu i innych cech fizycznych i jest obserwowalna w stanie niezakłóconym. Podczas jej wahań powstają różne stany próżni.

Jeżeli źródłem zakłóceń jest ładunek Q , wówczas jego stan objawia się jako pole elektromagnetyczne.

Jeżeli źródłem zakłóceń jest masa T, Ten stan próżni charakteryzuje się polem grawitacyjnym, co po raz pierwszy wyraził A.D. Sacharow.

Jeżeli źródłem zakłócenia jest spin, wówczas stan próżni interpretuje się jako pole wirowe, czyli pole torsyjne (pole torsyjne).

Opierając się na fakcie, że próżnia fizyczna jest układem dynamicznym charakteryzującym się intensywnymi wahaniami, fizycy uważają, że próżnia jest źródłem materii i energii, zarówno już zrealizowanej we Wszechświecie, jak i znajdującej się w stanie utajonym. Zdaniem akademika ŻOŁNIERZ AMERYKAŃSKI. Naana,„próżnia jest wszystkim i wszystko jest próżnią”.

4.3. Megaświat: współczesne koncepcje astrofizyczne i kosmologiczne

Współczesna nauka postrzega megaświat, czyli przestrzeń, jako oddziałujący na siebie i rozwijający się system wszystkich ciał niebieskich. Megaświat ma organizację systemową w postaci planet i układów planetarnych, które powstają wokół gwiazd i układów gwiezdnych - galaktyk.

Wszystkie istniejące galaktyki wchodzą w skład układu najwyższego rzędu – Metagalaktyki. Wymiary Metagalaktyki są bardzo duże: promień horyzontu kosmologicznego wynosi 15-20 miliardów lat świetlnych.

Pojęcia „Wszechświat” i „Metagalaktyka” są pojęciami bardzo bliskimi: charakteryzują ten sam obiekt, ale w różnych aspektach. Pojęcie "Wszechświat" oznacza cały istniejący świat materialny; pojęcie „Metagalaktyka”- ten sam świat, ale z punktu widzenia jego struktury - jak uporządkowany układ galaktyk.

Badana jest struktura i ewolucja Wszechświata kosmologia. Kosmologia jako dziedzina nauk przyrodniczych znajduje się na wyjątkowym skrzyżowaniu nauki, religii i filozofii. Kosmologiczne modele Wszechświata opierają się na pewnych przesłankach ideologicznych, a same modele mają ogromne znaczenie ideologiczne.

4.3.1. Współczesne modele kosmologiczne Wszechświata

Jak wskazano w poprzednim rozdziale, w nauce klasycznej istniał tzw teoria stanu ustalonego Wszystko Lenna, według którego Wszechświat zawsze był prawie taki sam, jak jest teraz. Nauka XIX wieku uważał atomy za wieczne, najprostsze elementy materii. Źródło energii gwiazd nie było znane, dlatego nie można było ocenić ich czasu życia. Kiedy wyjdą, Wszechświat pociemnieje, ale nadal będzie nieruchomy. Zimne gwiazdy będą kontynuować swoją chaotyczną i wieczną wędrówkę po przestrzeni kosmicznej, a planety będą generować swoje ciągłe loty po ryzykownych orbitach. Astronomia była statyczna: badano ruchy planet i komet, opisywano gwiazdy, tworzono ich klasyfikacje, co oczywiście było bardzo ważne. Ale kwestia ewolucji Wszechświata nie została podniesiona.

Klasyczna kosmologia newtonowska jawnie lub pośrednio akceptowała następujące postulaty1:

    Wszechświat to wszystko, co istnieje, „świat jako całość”. Kosmologia poznaje świat takim, jaki istnieje sam w sobie, niezależnie od warunków poznania.

    Przestrzeń i czas Wszechświata są absolutne, niezależne od obiektów i procesów materialnych.

    Przestrzeń i czas są metrycznie nieskończone.

    Przestrzeń i czas są jednorodne i izotropowe.

    Wszechświat jest stacjonarny i nie podlega ewolucji. Konkretne systemy kosmiczne mogą się zmienić, ale nie świat jako całość.

W kosmologii newtonowskiej powstały dwa paradoksy związane z postulatem nieskończoności Wszechświata.

Pierwszy paradoks nazywa się grawitacyjny Jego istotą jest to, że jeśli Wszechświat jest nieskończony i znajduje się w nim nieskończona liczba ciał niebieskich, wówczas siła grawitacji będzie nieskończenie duża, a Wszechświat powinien się zapaść i nie istnieć wiecznie.

Drugi paradoks to tzw fotometryczny: jeśli istnieje nieskończona liczba ciał niebieskich, to musi istnieć nieskończona jasność nieba, której nie można zaobserwować.

Te paradoksy, których nie da się rozwiązać w ramach kosmologii Newtona, rozwiązuje współczesna kosmologia, w granicach której wprowadzono ideę ewoluującego Wszechświata.

Współczesna kosmologia relatywistyczna buduje modele Wszechświata, wychodząc od podstawowego równania grawitacji wprowadzonego przez A. Einsteina w ogólnej teorii względności (GTR).

Podstawowe równanie ogólnej teorii względności łączy geometrię przestrzeni (a dokładniej tensor metryczny) z gęstością i rozkładem materii w przestrzeni.

Po raz pierwszy w nauce Wszechświat pojawił się jako obiekt fizyczny. Teoria obejmuje jego parametry: masę, gęstość, rozmiar, temperaturę.

Równanie grawitacyjne Einsteina ma nie jedno, ale wiele rozwiązań, co wyjaśnia istnienie wielu kosmologicznych modeli Wszechświata. Pierwszy model opracował A. Einstein w 1917 r. Odrzucił on postulaty kosmologii Newtona o absolutności i nieskończoności przestrzeni. Zgodnie z kosmologicznym modelem Wszechświata A. Einsteina przestrzeń świata jest jednorodna i izotrotyczna, materia jest średnio równomiernie rozłożona, przyciąganie grawitacyjne mas jest kompensowane przez powszechne odpychanie kosmologiczne. A. Model Einsteina ma charakter stacjonarny, ponieważ metrykę przestrzeni uważa się za niezależną od czasu. Istnienie Wszechświata jest nieskończone, tj. nie ma początku ani końca, a przestrzeń jest nieograniczona, ale skończona.

Wszechświat w modelu kosmologicznym A. Einsteina jest stacjonarny, nieskończony w czasie i nieograniczony w przestrzeni.

Model ten wydawał się wówczas całkiem zadowalający, gdyż był zgodny ze wszystkimi znanymi faktami. Jednak nowe pomysły wysunięte przez A. Einsteina pobudziły dalsze badania i wkrótce podejście do problemu uległo zdecydowanej zmianie.

Również w 1917 roku holenderski astronom W. de Sitter zaproponował inny model, który jest jednocześnie rozwiązaniem równań grawitacyjnych. Rozwiązanie to miało tę właściwość, że istniałoby nawet w przypadku „pustego” Wszechświata, wolnego od materii. Jeśli w takim Wszechświecie pojawiłyby się masy, wówczas rozwiązanie przestałoby być stacjonarne: powstał rodzaj kosmicznego odpychania pomiędzy masami, mającego tendencję do oddalania ich od siebie. Trend ekspansji Przez V. de Sittera, stał się zauważalny tylko z bardzo dużych odległości.

W 1922 rosyjski matematyk i geofizyk AA Friedmana odrzucił postulat klasycznej kosmologii o stacjonarności Wszechświata i uzyskał rozwiązanie równań Einsteina opisujących Wszechświat z „rozszerzającą się” przestrzenią.

Rozwiązywanie równań A.A. Friedman dopuszcza trzy możliwości. Jeżeli średnia gęstość materii i promieniowania we Wszechświecie jest równa pewnej wartości krytycznej, przestrzeń świata okazuje się euklidesowa i Wszechświat rozszerza się bez ograniczeń od początkowego stanu punktowego. Jeśli gęstość jest mniejsza niż krytyczna, przestrzeń ma geometrię Łobaczewskiego i również rozszerza się bez ograniczeń. I wreszcie, jeśli gęstość jest większa od krytycznej, przestrzeń Wszechświata okazuje się riemannowska, ekspansja na pewnym etapie zostaje zastąpiona kompresją, która trwa aż do początkowego stanu punktowego.

Ponieważ nie jest znana średnia gęstość materii we Wszechświecie, dziś nie wiemy, w której z tych przestrzeni Wszechświata żyjemy.

W 1927 belgijski opat i naukowiec J. Lvmetr powiązał „ekspansję” kosmosu z danymi z obserwacji astronomicznych. Lemaitre wprowadził koncepcję „początku Wszechświata” jako osobliwości (tj. stanu supergęstego) i narodzin Wszechświata jako Wielkiego Wybuchu.

W 1929 r. amerykański astronom EP Hubble'a odkrył istnienie dziwnego związku pomiędzy odległością i prędkością galaktyk: wszystkie galaktyki oddalają się od nas i to z prędkością rosnącą proporcjonalnie do odległości - ha systemu mlekowy się rozszerza.

Ekspansję Wszechświata od dawna uważa się za fakt potwierdzony naukowo, ale obecnie nie wydaje się możliwe jednoznaczne rozstrzygnięcie tej kwestii na korzyść tego czy innego modelu.

4.3.2. Problem powstania i ewolucji Wszechświata

Bez względu na to, jak zostanie rozwiązana kwestia różnorodności modeli kosmologicznych, oczywiste jest, że nasz Wszechświat ewoluuje. Według teoretycznych obliczeń J. Lemaitre'a promień Wszechświata w stanie pierwotnym wynosił 10-12 cm, czyli wielkością zbliżoną do promienia elektronu, a jego gęstość wynosiła 1096 g/cm3. W stanie osobliwym Wszechświat był mikroobiektem o znikomych rozmiarach.

Od początkowego stanu osobliwego Wszechświat przeszedł do ekspansji w wyniku Wielkiego Wybuchu. Od końca lat 40. W ostatnim stuleciu fizyka procesów zachodzących na różnych etapach ekspansji kosmologicznej przyciąga coraz większą uwagę w kosmologii. Student AA Friedmana GA Gamów opracował model gorący Wszechświat, biorąc pod uwagę reakcje jądrowe, które miały miejsce na samym początku ekspansji Wszechświata i nazwał to "warkocz teologia Wielkiego Wybuchu.”

Obliczenia retrospektywne szacują wiek Wszechświata na 13-15 miliardów lat. GA Gamow zasugerował tę temperaturę 130

moc była wielka i spadła wraz z ekspansją Wszechświata. Jego obliczenia wykazały, że Wszechświat w swojej ewolucji przechodzi przez pewne etapy, podczas których następuje powstawanie pierwiastków i struktur chemicznych. We współczesnej kosmologii, dla jasności, początkowy etap ewolucji Wszechświata dzieli się na epoki1.

Era Hadronów(ciężkie cząstki, które wchodzą w silne oddziaływania). Czas trwania ery wynosi 0,0001 s, temperatura wynosi 1012 stopni Kelvina, a gęstość wynosi 1014 cm3. Pod koniec ery następuje anihilacja cząstek i antycząstek, ale pozostaje pewna liczba protonów, hiperonów i mezonów.

Era leptonów(cząsteczki światła wchodzące w interakcję elektromagnetyczną). Czas trwania ery wynosi 10 sekund, temperatura wynosi 10–10 stopni Kelvina, a gęstość wynosi 104/cm3. Główną rolę odgrywają cząstki lekkie, które biorą udział w reakcjach pomiędzy protonami i neutronami.

Era fotonu. Czas trwania 1 milion lat. Większa część masy – energia Wszechświata – pochodzi z fotonów. Pod koniec ery temperatura spada z 1010 do 3000 stopni Kelvina, a gęstość – z 104 g/cm3 do 10 – 21 g/cm3. Główną rolę odgrywa promieniowanie, które pod koniec ery zostaje oddzielone od materii.

Era gwiazd następuje 1 milion lat po narodzinach Wszechświata. W epoce gwiazdowej rozpoczyna się proces powstawania proto-codzienności i proto-galaktyk.

Następnie rozwija się wspaniały obraz powstawania struktury metagalaktyki.

We współczesnej kosmologii, wraz z hipotezą Wielkiego Wybuchu, tzw model inflacji Wszechświat, w którym rozważana jest idea powstania Wszechświata. Idea ta ma bardzo złożone uzasadnienie i wiąże się z kosmologią kwantową. Model ten opisuje ewolucję Wszechświata począwszy od momentu 10-45 s po rozpoczęciu ekspansji.

Zgodnie z hipotezą inflacji ewolucja kosmiczna we wczesnym Wszechświecie przebiega przez kilka etapów.

Początek Wszechświat jest definiowany przez fizyków teoretyków jako stan supergrawitacja kwantowa o promieniu Wszechświata wynoszącym 10 -50 cm (dla porównania: wielkość atomu określa się na 10-8 cm, a wielkość jądra atomowego na 10-13 cm). Główne wydarzenia we wczesnym Wszechświecie miały miejsce w pomijalnie krótkim czasie od 10-45 s do 10-30 s.

Etap inflacji. W wyniku skoku kwantowego Wszechświat przeszedł w stan wzbudzonej próżni i przy braku w nim materii i promieniowania intensywnie się rozszerzał zgodnie z prawem wykładniczym. W tym okresie powstała przestrzeń i czas samego Wszechświata. Podczas fazy inflacyjnej trwającej 10–34 s Wszechświat rozrósł się z niewyobrażalnie małego rozmiaru kwantowego 10–33 cm do niewyobrażalnie dużego 101 000 000 cm, czyli o wiele rzędów wielkości większy od rozmiaru obserwowalnego Wszechświata - 1028 cm Przez cały ten początkowy okres we Wszechświecie nie było ani materii, ani promieniowania.

Przejście z etapu inflacyjnego do etapu fotonowego. Stan fałszywej próżni uległ rozpadowi, uwolniona energia poszła na narodziny ciężkich cząstek i antycząstek, które po anihilacji dały potężny błysk promieniowania (światła) oświetlającego przestrzeń.

Etap oddzielenia materii od promieniowania: substancja pozostała po anihilacji stała się przezroczysta dla promieniowania, a kontakt substancji z promieniowaniem zniknął. Promieniowanie oddzielone od materii stanowi współczesne tło reliktowe, teoretycznie przewidywane przez G.A. Gamowa i odkryta eksperymentalnie w 1965 roku.

Następnie rozwój Wszechświata poszedł w kierunku od MAK najprostszy stan jednorodny tworzyć coraz więcej złożone struktury- atomy (początkowo atomy wodoru), galaktyki, gwiazdy, planety, synteza pierwiastków ciężkich w trzewiach gwiazd, w tym niezbędnych do powstania życia, powstania życia i jako zwieńczenia stworzenia człowieka.

Różnica pomiędzy etapami ewolucji Wszechświata w modelu inflacyjnym i modelu Wielkiego Wybuchu dotyczy jedynie początkowego etapu rzędu 10-30 s, wówczas nie ma zasadniczych różnic pomiędzy tymi modelami w rozumieniu etapów kosmiczna ewolucja. Różnice w wyjaśnianiu mechanizmów ewolucji kosmicznej wiążą się z rozbieżnymi światopoglądami. Od samego początku pojawienia się idei rozszerzającego się i ewoluującego Wszechświata rozpoczęła się wokół niej walka.

Pierwszym był problem początku i końca czasu istnienia Wszechświata, którego rozpoznanie zaprzeczało materialistycznym twierdzeniom o wieczności czasu i nieskończoności przestrzeni, niekreowalności i niezniszczalności materii.

Jakie są naukowe uzasadnienia przyrodnicze początku i końca istnienia Wszechświata?

Uzasadnienie to udowodnili w 1965 roku amerykańscy fizycy teoretyczni Penrose'a i S. Hawkinga twierdzenie, zgodnie z którym w każdym modelu Wszechświata z ekspansją koniecznie musi istnieć osobliwość - przerwa w liniach czasu w przeszłości, co można rozumieć jako początek czasu. To samo tyczy się sytuacji, gdy rozszerzanie zastąpione zostanie kompresją – wówczas nastąpi przerwa w liniach czasu w przyszłości – koniec czasu. Co więcej, moment rozpoczęcia kompresji jest interpretowany przez fizyka F. Tiple rum jako koniec czasu - Wielki Drenaż, do którego wpływają nie tylko galaktyki, ale także same „wydarzenia” całej przeszłości Wszechświata.

Drugi problem wiąże się ze stworzeniem świata z niczego. Materialiści odrzucili możliwość stworzenia, gdyż próżnia nie jest niczym, lecz rodzajem materii. Tak, zgadza się, próżnia jest szczególnym rodzajem materii. Ale faktem jest, że A.A. Friedman, matematycznie, moment początku ekspansji przestrzeni wywodzi się nie z ultramałych, ale z zero tom. W swojej popularnej książce Świat jako przestrzeń i czas, opublikowanej w 1923 roku, mówi o możliwości „stworzenia świata z niczego”.

W teorii próżni fizycznej G.I. Shilov, najwyższym poziomem rzeczywistości jest przestrzeń geometryczna - Absolutne Nic. To stanowisko jego teorii nawiązuje do twierdzeń angielskiego matematyka W. Clifforda, że ​​na świecie nie ma nic poza przestrzenią z jej skręcaniem i krzywizną, a materia to bryły przestrzeni, swoiste wzgórza krzywizny na tle płaskiej przestrzeni. Z idei W. Clifforda korzystał także A. Einstein, który w ogólnej teorii względności po raz pierwszy pokazał ogólny głęboki związek pomiędzy abstrakcyjną geometryczną koncepcją krzywizny przestrzeni a fizycznymi problemami grawitacji.

Z absolutnej Nicości, pustej przestrzeni geometrycznej, w wyniku jej skręcenia powstają wiry czasoprzestrzenne obrotu w prawo i w lewo, niosące informację. Wiry te można interpretować jako pole informacyjne przenikające przestrzeń. Równania opisujące pole informacyjne są nieliniowe, zatem pola informacyjne mogą mieć złożoną strukturę wewnętrzną, co pozwala im być nośnikami znacznych ilości informacji.

Pierwotne pola torsyjne (pola informacyjne) generują próżnię fizyczną, która jest nośnikiem wszystkich pozostałych pól fizycznych – elektromagnetycznych, grawitacyjnych, torsyjnych. W warunkach wzbudzenia informacyjno-energetycznego próżnia generuje mikrocząstki materialne.

Próbę rozwiązania jednego z głównych problemów wszechświata – powstania wszystkiego z niczego – podjęto w latach 80-tych. XX wiek Amerykański fizyk A. Gut i radziecki fizyk A. Linde. Energia Wszechświata, która jest zachowana, została podzielona na części grawitacyjne i niegrawitacyjne, posiadające różne znaki. A wtedy całkowita energia Wszechświata będzie równa zeru. Fizycy uważają, że jeśli potwierdzi się przewidywany brak zachowania liczby barionowej, to wtedy wtedy żadne z praw zachowania nie zapobiegnie narodzinom Wszechświata z niczego. Na razie model ten można obliczyć jedynie teoretycznie, a pytanie pozostaje otwarte.

Największa trudność dla naukowców pojawia się w wyjaśnianiu powodów kosmiczna ewolucja. Jeśli odłożymy na bok szczegóły, możemy wyróżnić dwie główne koncepcje wyjaśniające ewolucję Wszechświata: koncepcję samoorganizacji i koncepcję kreacjonizmu.

Dla koncepcje samoorganizacji materialny Wszechświat jest jedyną rzeczywistością i poza nim nie istnieje żadna inna rzeczywistość. Ewolucję Wszechświata opisuje się w kategoriach samoorganizacji: następuje spontaniczne porządkowanie układów w kierunku tworzenia coraz bardziej złożonych struktur. Dynamiczny chaos tworzy porządek. Pytanie o cele kosmicznej ewolucji nie można ująć w ramach koncepcji samoorganizacji.

W koncepcje kreacjonizmu, te. stworzenia, ewolucja Wszechświata wiąże się z urzeczywistnieniem programy, zdeterminowana przez rzeczywistość wyższego rzędu niż świat materialny. Zwolennicy kreacjonizmu zwracają uwagę na istnienie we Wszechświecie ukierunkowanej nomogenezy (z gr. nomos - prawo i geneza - pochodzenie) - rozwój od prostych systemów do coraz bardziej złożonych i intensywnie informacyjnych, podczas których stworzono warunki do powstania życia i człowieka. Jako dodatkowy argument używamy zasada antropiczna cyp, sformułowane przez angielskich astrofizyków B. Carrom I Rissom.

Istotą zasady antroponometrycznej jest to, że istnienie Wszechświata, w którym żyjemy, zależy od wartości liczbowych podstawowych stałych fizycznych - stałej Plancka, stałej grawitacji, stałych interakcji itp.

Wartości liczbowe tych stałych określają główne cechy Wszechświata, rozmiary atomów, jąder atomowych, planet, gwiazd, gęstość materii i czas życia Wszechświata. Gdyby te wartości różniły się od istniejących choćby w niewielkim stopniu, wówczas nie tylko życie byłoby niemożliwe, ale sam Wszechświat jako złożona uporządkowana struktura byłaby niemożliwa. Stąd wyciąga się wniosek, że fizyczna struktura Wszechświata jest zaprogramowana i ukierunkowana na powstanie życia. Ostatecznym celem ewolucji kosmicznej jest pojawienie się człowieka we Wszechświecie zgodnie z planami Stwórcy1.

Wśród współczesnych fizyków teoretyków znajdują się zwolennicy zarówno koncepcji samoorganizacji, jak i koncepcji kreacjonizmu. Ci ostatni uznają, że rozwój podstawowej fizyki teoretycznej powoduje pilną potrzebę opracowania jednolitego naukowo-teistycznego obrazu świata, syntezującego wszystkie osiągnięcia z zakresu wiedzy i wiary. Ci pierwsi wyznają poglądy ściśle naukowe.

4.3.3. Struktura Wszechświata

Wszechświat na różnych poziomach, od konwencjonalnych cząstek elementarnych po gigantyczne supergromady galaktyk, charakteryzuje się strukturą. Współczesna struktura Wszechświata jest wynikiem kosmicznej ewolucji, podczas której z protogalaktyk powstały galaktyki, gwiazdy z protogwiazd, a planety z obłoków protoplanetarnych.

Metagalaktyka to zbiór układów gwiezdnych – galaktyk, a o jego strukturze decyduje ich rozmieszczenie w przestrzeni wypełnionej niezwykle rozrzedzonym gazem międzygalaktycznym i penetrowanej przez promienie międzygalaktyczne.

Według współczesnych koncepcji Metagalaktyka charakteryzuje się strukturą komórkową (siatkową, porowatą). Pomysły te opierają się na danych z obserwacji astronomicznych, które wykazały, że galaktyki nie są równomiernie rozmieszczone, ale skupiają się w pobliżu granic komórek, w obrębie których galaktyk prawie nie ma. Ponadto odkryto ogromne objętości przestrzeni (rzędu miliona megaparseków sześciennych), w których nie odkryto jeszcze galaktyk. Modelem przestrzennym takiej struktury może być kawałek pumeksu, który jest niejednorodny w małych izolowanych objętościach, ale jednorodny w dużych objętościach.

Jeśli weźmiemy pod uwagę nie poszczególne odcinki Metagalaktyki, ale jej wielkoskalową strukturę jako całość, to oczywiste jest, że w tej strukturze nie ma specjalnych, odrębnych miejsc ani kierunków, a materia jest rozłożona stosunkowo równomiernie.

Wiek Metagalaktyki jest zbliżony do wieku Wszechświata, gdyż kształtowanie się jego struktury następuje w okresie następującym po oddzieleniu materii i promieniowania. Według współczesnych danych wiek Metagalaktyki szacuje się na 15 miliardów lat. Naukowcy uważają, że najwyraźniej wiek galaktyk, które powstały na jednym z początkowych etapów ekspansji metagalaktyki, jest również zbliżony.

Galaktyka- gigantyczny system składający się z gromad gwiazd i mgławic, tworzący dość złożoną konfigurację w przestrzeni.

W zależności od kształtu galaktyki umownie dzieli się na trzy typy: eliptyczne, spiralne i nieregularne.

Eliptyczny galaktyki mają przestrzenny kształt elipsoidalny o różnym stopniu kompresji. Mają najprostszą konstrukcję: rozkład gwiazd równomiernie maleje od środka.

Spirala galaktyki przedstawione są w kształcie spirali, łącznie z ramionami spiralnymi. To najliczniejszy typ galaktyk, do którego zalicza się nasza Galaktyka – Droga Mleczna.

Błędny galaktyki nie mają wyraźnego kształtu, brakuje im centralnego jądra.

Niektóre galaktyki charakteryzują się wyjątkowo silną emisją radiową, przewyższającą promieniowanie widzialne. To są galaktyki radiowe.

Ryż. 4.2. Galaktyka spiralna NGG 224 (Mgławica Andromedy)

W strukturze „regularnych” galaktyk można bardzo łatwo wyróżnić rdzeń centralny i sferyczne obrzeże, prezentowane albo w postaci ogromnych gałęzi spiralnych, albo w postaci dysku eliptycznego, zawierającego najgorętsze i najjaśniejsze gwiazdy oraz masywne obłoki gazu .

Jądra galaktyczne wykazują swoją aktywność w różnych postaciach: w ciągłym wypływie strumieni materii; w emisjach skupisk gazu i chmur gazu o masie milionów mas Słońca; w nietermicznej emisji radiowej z obszaru okołojądrowego.

Najstarsze gwiazdy, których wiek jest zbliżony do wieku galaktyki, skupiają się w jądrze galaktyki. W dysku galaktycznym znajdują się gwiazdy w średnim wieku i młode.

Gwiazdy i mgławice w galaktyce poruszają się w dość złożony sposób: razem z galaktyką biorą udział w rozszerzaniu się Wszechświata; ponadto uczestniczą w obrocie galaktyki wokół własnej osi.

Gwiazdy. Na obecnym etapie ewolucji Wszechświata materia w nim się znajduje głównie gwiezdny stan : schorzenie. 97% materii w naszej Galaktyce koncentruje się w gwiazdach, które są gigantycznymi formacjami plazmowymi o różnych rozmiarach, temperaturach i różnych charakterystykach ruchu. Wiele, jeśli nie większość, innych galaktyk zawiera „materię gwiazdową”, która stanowi ponad 99,9% ich masy.

Wiek gwiazd waha się w dość szerokim zakresie wartości: od 15 miliardów lat, odpowiadających wiekowi Wszechświata, do setek tysięcy - najmłodszych. Są gwiazdy, które aktualnie powstają i są w fazie protogwiazdowej, tj. nie stali się jeszcze prawdziwymi gwiazdami.

Duże znaczenie ma badanie relacji gwiazd z ośrodkiem międzygwiazdowym, w tym problem ciągłego powstawania gwiazd z kondensującej, rozproszonej (rozproszonej) materii.

Narodziny gwiazd zachodzą w mgławicach gazowo-pyłowych pod wpływem sił grawitacyjnych, magnetycznych i innych, dzięki czemu powstają niestabilne jednorodności, a rozproszona materia rozpada się na szereg kondensacji. Jeśli takie koncentracje utrzymują się wystarczająco długo, to z czasem zamieniają się w gwiazdy. Należy zauważyć, że proces narodzin nie dotyczy pojedynczej, izolowanej gwiazdy, ale gwiezdnych skojarzeń. Powstałe ciała gazowe przyciągają się do siebie, ale niekoniecznie łączą się w jedno ogromne ciało. Zazwyczaj zaczynają się one obracać względem siebie, a siła odśrodkowa tego ruchu przeciwdziała sile przyciągania, prowadząc do dalszej koncentracji. Gwiazdy ewoluują od protogwiazd, gigantycznych kul gazu o słabym blasku i niskiej temperaturze, do gwiazd – gęstych ciał plazmowych o temperaturach wewnętrznych sięgających milionów stopni. Następnie rozpoczyna się proces przemian jądrowych, opisany w fizyce jądrowej. Główna ewolucja materii we Wszechświecie miała miejsce i zachodzi w głębinach gwiazd. To właśnie tam znajduje się „tygiel do topienia”, który zadecydował o ewolucji chemicznej materii we Wszechświecie.

W głębinach gwiazd, w temperaturze rzędu 10 milionów stopni i przy bardzo dużej gęstości, atomy znajdują się w stanie zjonizowanym: elektrony są prawie całkowicie lub całkowicie oddzielone od swoich atomów. Pozostałe jądra oddziałują ze sobą, dzięki czemu wodór, którego jest dużo w większości gwiazd, przy udziale węgla przekształca się w hel. Te i podobne przemiany jądrowe są źródłem kolosalnych ilości energii unoszonej przez promieniowanie gwiazdowe.

Ogromna energia emitowana przez gwiazdy powstaje w wyniku procesów jądrowych zachodzących w ich wnętrzu. Te same siły, które powstają podczas eksplozji bomby wodorowej, wytwarzają w gwieździe energię, która pozwala jej emitować światło i ciepło przez miliony, a nawet miliardy lat, przekształcając wodór w cięższe pierwiastki, głównie hel. W rezultacie na końcowym etapie ewolucji gwiazdy zamieniają się w gwiazdy obojętne („martwe”).

Gwiazdy nie istnieją w izolacji, ale tworzą systemy. Najprostsze układy gwiazdowe – tak zwane układy wielokrotne – składają się z dwóch, trzech, czterech, pięciu lub większej liczby gwiazd krążących wokół wspólnego środka ciężkości. Elementy niektórych układów wielokrotnych otoczone są wspólną powłoką rozproszonej materii, której źródłem są najwyraźniej same gwiazdy, które wyrzucają ją w przestrzeń kosmiczną w postaci potężnego strumienia gazu.

Gwiazdy łączą się także w jeszcze większe grupy - gromady gwiazd, które mogą mieć strukturę „rozproszoną” lub „kulistą”. Gromady otwarte gwiazd liczą kilkaset pojedynczych gwiazd, gromady kuliste liczą setki lub tysiące. A skojarzenia, czyli gromady gwiazd, również nie są niezmienne i istnieją wiecznie. Po pewnym czasie, liczonym w milionach lat, zostają one rozproszone przez siły rotacji galaktyk.

Układ Słoneczny to grupa ciał niebieskich bardzo różniących się wielkością i budową fizyczną. Do tej grupy zaliczają się: Słońce, dziewięć dużych planet, dziesiątki satelitów planetarnych, tysiące małych planet (asteroid), setki komet, niezliczone ciała meteorytów poruszające się zarówno w rojach, jak i w postaci pojedynczych cząstek. Do 1979 roku znanych było 34 satelitów i 2000 asteroid. Wszystkie te ciała są zjednoczone w jeden system dzięki sile grawitacji ciała centralnego - Słońca. Układ Słoneczny to uporządkowany układ, który rządzi się swoimi własnymi prawami strukturalnymi. Zunifikowany charakter Układu Słonecznego przejawia się w tym, że wszystkie planety krążą wokół Słońca w tym samym kierunku i prawie w tej samej płaszczyźnie. Większość satelitów planet (ich księżyców) obraca się w tym samym kierunku i w większości przypadków w płaszczyźnie równikowej swojej planety. Słońce, planety, satelity planet obracają się wokół swoich osi w tym samym kierunku, w którym poruszają się po swoich trajektoriach. Struktura Układu Słonecznego jest również naturalna: każda kolejna planeta znajduje się w przybliżeniu dwa razy dalej od Słońca niż poprzednia. Biorąc pod uwagę prawidłowości budowy Układu Słonecznego, jego przypadkowe powstanie wydaje się niemożliwe.

Nie ma też ogólnie przyjętych wniosków na temat mechanizmu powstawania planet w Układzie Słonecznym. Według naukowców Układ Słoneczny powstał około 5 miliardów lat temu, a Słońce jest gwiazdą drugiej (lub nawet późniejszej) generacji. W ten sposób Układ Słoneczny powstał z produktów aktywności życiowej gwiazd poprzednich pokoleń, które zgromadziły się w obłokach gazu i pyłu. Ta okoliczność daje powód, aby nazwać Układ Słoneczny małą częścią pyłu gwiezdnego. Nauka wie mniej o pochodzeniu Układu Słonecznego i jego historycznej ewolucji, niż jest to konieczne do zbudowania teorii powstawania planet. Od pierwszych hipotez naukowych postawionych około 250 lat temu do dnia dzisiejszego zaproponowano dużą liczbę różnych modeli powstania i rozwoju Układu Słonecznego, jednak żaden z nich nie został wypromowany do rangi ogólnie przyjętej teorii . Większość wcześniej postawionych hipotez ma dziś znaczenie wyłącznie historyczne.

Pierwsze teorie pochodzenia Układu Słonecznego wysunął niemiecki filozof I.Kantom i francuski matematyk P.S. Laplace'a. Ich teorie weszły do ​​nauki jako swego rodzaju kolektywna hipoteza kosmogoniczna Kanta-Laplace’a, choć powstawały niezależnie od siebie.

Według tej hipotezy układ planet wokół Słońca powstał w wyniku działania sił przyciągania i odpychania pomiędzy cząstkami rozproszonej materii (mgławicami) poruszającymi się w ruchu obrotowym wokół Słońca.

Początkiem kolejnego etapu w rozwoju poglądów na temat powstania Układu Słonecznego była hipoteza angielskiego fizyka i astrofizyka J. X . Dżinsy. Zasugerował, że Słońce kiedyś zderzyło się z inną gwiazdą, w wyniku czego wyrwany został z niego strumień gazu, który kondensując przekształcił się w planety. Jednak biorąc pod uwagę ogromną odległość między gwiazdami, takie zderzenie wydaje się całkowicie niewiarygodne. Bardziej szczegółowa analiza ujawniła inne wady tej teorii.

Współczesne koncepcje pochodzenia planet Układu Słonecznego opierają się na fakcie, że należy wziąć pod uwagę nie tylko siły mechaniczne, ale także inne, w szczególności elektromagnetyczne. Pomysł ten wysunął szwedzki fizyk i astrofizyk X . Alfa jad i angielski astrofizyk F. Hoyle’a. Uważa się za prawdopodobne, że decydującą rolę w narodzinach Układu Słonecznego odegrały siły elektromagnetyczne.

Według współczesnych koncepcji pierwotna chmura gazu, z której powstało zarówno Słońce, jak i planety, składała się ze zjonizowanego gazu podlegającego wpływowi sił elektromagnetycznych. Po tym jak Słońce uformowało się z ogromnej chmury gazu w wyniku koncentracji, małe części tej chmury pozostały w bardzo dużej odległości od niej. Siła grawitacyjna zaczęła przyciągać pozostały gaz do powstałej gwiazdy – Słońca, ale jej pole magnetyczne zatrzymywało opadający gaz w różnych odległościach – dokładnie tam, gdzie znajdują się planety. Siły grawitacyjne i magnetyczne wpłynęły na koncentrację i kondensację spadającego gazu, w wyniku czego powstały planety.

Kiedy powstały największe planety, ten sam proces powtórzono na mniejszą skalę, tworząc w ten sposób układy satelitów. Teorie pochodzenia Układu Słonecznego mają charakter hipotetyczny i na obecnym etapie rozwoju nauki nie da się jednoznacznie rozstrzygnąć kwestii ich wiarygodności. Wszystkie istniejące teorie mają sprzeczności i niejasne obszary.

Pytania do samokontroli

    Na czym polega systematyczne podejście do struktury materii?

    Odkryj związek pomiędzy mikro, makro i mega światem.

    Jakie byłyby wyobrażenia o materii i polu jako o rodzajach materii

zostały opracowane w ramach fizyki klasycznej?

4. Co oznacza pojęcie kwantu? Opowiedz nam o głównych etapach rozwoju koncepcji kwantów.

5. Co oznacza koncepcja „dualności falowo-cząsteczkowej”? Który

Czy zasada komplementarności N. Bohra jest istotna w opisie fizycznej rzeczywistości mikroświata?

6. Jaki wpływ wywarła mechanika kwantowa na współczesną genetykę?

netiku? Jakie są główne zasady genetyki fal?

7. Co oznacza pojęcie „próżni fizycznej”? W czym jest jego rola

ewolucja materii?

8. Podkreśl główne poziomy strukturalne organizacji materii

mikrokosmos i scharakteryzuj je.

9. Określić główne poziomy strukturalne organizacji materii

w megaświecie i nadaj im cechy.

    Jakie modele Wszechświata powstały we współczesnej kosmologii?

    Opisz główne etapy ewolucji Wszechświata z punktu widzenia współczesnej nauki.

Bibliografia

    Weinberg S. Pierwsze trzy minuty. Współczesne spojrzenie na pochodzenie Wszechświata. - M.: Nauka, 1981.

    Władimirow Yu.S. Fizyka podstawowa, filozofia i religia. - Kostroma: Wydawnictwo MITSAOST, 1996.

    Gernek F. Pionierzy epoki atomowej. - M: Postęp, 1974.

    Dorfman Ya.G.Światowa historia fizyki od początku XIX wieku do połowy XX wieku. - M: Nauka, 1979.

    Idlis G.M. Rewolucja w astronomii, fizyce i kosmologii. - M.: Nauka, 1985.

    Kaira F. Tao fizyki. - Petersburg, 1994.

    Kirillin V.A. Strony historii nauki i techniki. - M.: Nauka, 1986.

    Kudryavtsev P.S. Kurs z historii fizyki. - M.: Mir, 1974.

    Liozzi M. Historia fizyki. - M: Mir, 1972.

1 pytanie Marion J.B. Fizyka i świat fizyczny. - M.: Mir, 1975.

    Nalimov V.V. Na progu trzeciego tysiąclecia. - M.: Nauka, 1994.

    Szkłowski I.S. Gwiazdy, ich narodziny, życie i śmierć. - M: Nauka, 1977.

    Gariajew P.P. Genom falowy. - M.: Pożytek publiczny, 1994.

    Shipov G.I. Teoria próżni fizycznej. Nowy paradygmat. - M.: NT-Centrum, 1993.

Fizyka mikroświata

Strukturalne poziomy materii w fizyce

(wstaw zdjęcie)

Poziomy strukturalne substancji w mikrokosmosie

    Poziom molekularny- poziom struktury molekularnej substancji. Cząsteczka – pojedynczy układ kwantowo-mechaniczny jednoczący atomy

    Poziom atomowy- poziom budowy atomowej substancji.

Atom – element strukturalny mikrokosmosu, składający się z rdzenia i powłoki elektronowej.

    Poziom nukleonu- poziom rdzenia i cząstek jego składników.

Nukleon – ogólna nazwa protonu i neutronu, które są składnikami jąder atomowych.

    Poziom kwarka- poziom cząstek elementarnych – kwarków i leptonów

Struktura atomowa

Rozmiary atomów są rzędu 10 -10 m.

Rozmiary jąder atomowych wszystkich pierwiastków wynoszą około 10 -15 m, czyli dziesiątki tysięcy razy mniejsze niż rozmiary atomów

Jądro atomu jest dodatnie, a elektrony krążące wokół jądra niosą ze sobą ujemny ładunek elektryczny. Dodatni ładunek jądra jest równy sumie ujemnych ładunków elektronów. Atom jest elektrycznie obojętny.

Planetarny model atomu Rutherforda . (wstaw zdjęcie)

Pokazano orbity kołowe czterech elektronów.

Elektrony na orbitach są utrzymywane przez siły przyciągania elektrycznego między nimi a jądrem atomu

Elektron nie może znajdować się w tym samym stanie energetycznym. W powłoce elektronowej elektrony ułożone są warstwowo. Każda powłoka zawiera pewną ilość: w pierwszej warstwie najbliższej jądra - 2, w drugiej - 8, w trzeciej - 18, w czwartej - 32 itd. Po drugiej warstwie orbity elektronów są obliczane na podwarstwy .

Poziomy energetyczne atomu i konwencjonalne przedstawienie procesów absorpcji i emisji fotonów (widzieć zdjęcie)

Przechodząc z niskiego poziomu energii na wyższy poziom energii, atom pochłania energię (kwant energii) równą różnicy energii pomiędzy przejściami. Atom emituje kwant energii, jeśli elektron w atomie przechodzi z wyższego poziomu energii na niższy (przechodzi gwałtownie).

Ogólna klasyfikacja cząstek elementarnych

Cząstki elementarne- są to cząstki nierozkładalne, których wewnętrzna struktura nie jest połączeniem innych wolnych cząstek, nie są atomami ani jądrami atomowymi, z wyjątkiem protonu

Klasyfikacja

    Fotony

    Elektrony

  • Bariony

Neutron

Podstawowe charakterystyki cząstek elementarnych

Waga

    Leptony (światło)

    Mezony (średnie)

    Bariony (ciężkie)

Dożywotni

    stabilny

    Quasi-stabilny (rozkładający się pod wpływem oddziaływań słabych i elektromagnetycznych)

    Rezonanse (niestabilne, krótkotrwałe cząstki, które rozpadają się w wyniku silnych oddziaływań)

Interakcje w mikrokosmosie

    Silna interakcja zapewnia silne sprzężenie i neutrony w jądrach atomów, kwarki w nukleonach

    Oddziaływanie elektromagnetyczne zapewnia połączenie między elektronami i jądrami, atomami w cząsteczkach

    Słaba interakcja zapewnia przejście pomiędzy różnymi typami kwarków, w szczególności warunkuje rozpad neutronów, powoduje wzajemne przejścia pomiędzy różnymi typami leptonów

    Oddziaływanie grawitacyjne w mikrokosmosie w odległości 10 -13 cm nie można pominąć, natomiast w odległościach rzędu 10 -33 cm zaczynają pojawiać się szczególne właściwości próżni fizycznej - wirtualne superciężkie cząstki otaczają się polem grawitacyjnym zaburzającym geometrię przestrzeni

Charakterystyka oddziaływania cząstek elementarnych

Typ interakcji

Intensywność względna

Zasięg cm

Cząstki, pomiędzy którymi zachodzi interakcja

Cząsteczki są nośnikami interakcji

Nazwa

Masa GeV

Mocny

Hadrony (neutrony, protony, mezony)

Gluony

Elektromagnetyczny

Wszystkie naładowane elektrycznie ciała i cząstki

Foton

Słaby

Wszystkie cząstki elementarne z wyjątkiem fotonów

Wektor obozones W + , W - , Z 0

Grawitacyjny

Wszystkie cząstki

Grawitony (hipotetycznie cząstka)

Strukturalne poziomy organizacji materii (pole)

Pole

    Grawitacja (kwanty – grawitony)

    Elektromagnetyczne (kwanty - fotony)

    Jądrowe (kwanty - mezony)

    Elektronicznie dodatnie (kwantowe – elektrony, pozytony)

Strukturalne poziomy organizacji materii (materia i pole)

Materia i pole są różne

    Według masy spoczynkowej

    Według wzorców ruchu

    Według stopnia przepuszczalności

    Według stopnia koncentracji masy i energii

    Jako jednostki cząsteczkowe i falowe

Wniosek ogólny : różnica między substancjami i polami prawidłowo charakteryzuje świat rzeczywisty w przybliżeniu makroskopowym. Różnica ta nie jest absolutna, a przechodząc do mikroobiektów wyraźnie ujawnia się jej względność. W mikrokosmosie pojęcia „cząstek” (materii) i „fal” (pól) pełnią rolę dodatkowych cech, które wyrażają wewnętrzną niespójność istoty mikroobiektów.

Kwarki są składnikami cząstek elementarnych

Wszystkie kwarki mają ułamkowy ładunek elektryczny. Charakteryzuje się kwarkami dziwność, urok i piękno.

Ładunek barionowy wszystkich kwarków wynosi 1/3, a odpowiadających im antykwarków 1/3. Każdy kwark ma trzy stany, stany te nazywane są stanami koloru: R - czerwony, G - zielony i B - niebieski

Wyślij swoją dobrą pracę do bazy wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy, będą Państwu bardzo wdzięczni.

Opublikowano na http://www.allbest.ru/

Test

Mikroświat: koncepcje współczesnej fizyki

Wstęp

Mikroświat to świat niezwykle małych, nieobserwowalnych bezpośrednio mikroobiektów. (Wymiar przestrzenny, który jest liczony od 10-8 do 10-16 cm, a czas życia - od nieskończoności do 10-24 s.)

Mechanika kwantowa (mechanika falowa) to teoria ustanawiająca metodę opisu i prawa ruchu na poziomie mikro.

Badanie zjawisk mikroświata doprowadziło do wyników, które znacznie odbiegają od ogólnie przyjętych w fizyce klasycznej, a nawet teorii względności. Fizyka klasyczna widziała swój cel w opisywaniu obiektów istniejących w przestrzeni i formułowaniu praw rządzących ich zmianami w czasie. Ale w przypadku takich zjawisk, jak rozpad promieniotwórczy, dyfrakcja, emisja linii widmowych, można jedynie stwierdzić, że istnieje pewne prawdopodobieństwo, że pojedynczy obiekt jest taki i ma taką a taką właściwość. W mechanice kwantowej nie ma miejsca na prawa rządzące zmianami pojedynczego obiektu w czasie.

Mechanika klasyczna charakteryzuje się opisem cząstek poprzez określenie ich położenia i prędkości oraz zależności tych wielkości od czasu. W mechanice kwantowej identyczne cząstki w identycznych warunkach mogą zachowywać się inaczej.

1. Mikroświat: koncepcje współczesnej fizyki opisujące mikroświat

Przechodząc do badania mikroświata, odkryto, że rzeczywistość fizyczna jest jednolita i nie ma luki między materią a polem.

Badając mikrocząstki, naukowcy stanęli przed paradoksalną sytuacją z punktu widzenia nauki klasycznej: te same obiekty wykazywały zarówno właściwości falowe, jak i korpuskularne.

Pierwszy krok w tym kierunku zrobił niemiecki fizyk M. Planck. Jak wiadomo, pod koniec XIX w. W fizyce pojawiła się trudność, którą nazwano „katastrofą ultrafioletową”. Zgodnie z obliczeniami wykorzystującymi wzór elektrodynamiki klasycznej, natężenie promieniowania cieplnego ciała całkowicie czarnego powinno wzrastać bez ograniczeń, co wyraźnie zaprzecza doświadczeniu. W procesie badań promieniowania cieplnego, który M. Planck nazwał najtrudniejszym w swoim życiu, doszedł do oszałamiającego wniosku, że w procesach radiacyjnych energia może być oddawana lub pochłaniana nie w sposób ciągły i nie w dowolnych ilościach, ale tylko w pewnych niepodzielnych ilościach porcje - ilości. Energię kwantów określa się poprzez liczbę oscylacji odpowiedniego rodzaju promieniowania i uniwersalną stałą naturalną, którą M. Planck wprowadził do nauki pod symbolem h: E = h y.

Jeśli wprowadzenie kwantu nie stworzyło jeszcze prawdziwej teorii kwantowej, jak wielokrotnie podkreślał M. Planck, to 14 grudnia 1900 r., w dniu opublikowania formuły, położono jej podwaliny. Dlatego w historii fizyki ten dzień uważany jest za urodziny fizyki kwantowej. A ponieważ koncepcja elementarnego kwantu działania posłużyła później za podstawę do zrozumienia wszystkich właściwości powłoki atomowej i jądra atomowego, 14 grudnia 1900 r. należy uznać zarówno za urodziny całej fizyki atomowej, jak i początek nowej ery nauk przyrodniczych.

Pierwszym fizykiem, który entuzjastycznie przyjął odkrycie elementarnego kwantu działania i twórczo je rozwinął, był A. Einstein. W 1905 roku przeniósł genialną ideę kwantowanej absorpcji i uwalniania energii podczas promieniowania cieplnego na promieniowanie w ogóle, uzasadniając w ten sposób nową doktrynę światła.

Idea światła jako strumienia szybko poruszających się kwantów była niezwykle odważna, wręcz odważna i początkowo niewielu wierzyło w jej słuszność. Przede wszystkim sam M. Planck nie zgodził się z rozszerzeniem hipotezy kwantowej na kwantową teorię światła, odnosząc swój kwantowy wzór jedynie do rozważanych przez siebie praw promieniowania cieplnego ciała doskonale czarnego.

A. Einstein zasugerował, że mówimy o prawie naturalnym o charakterze uniwersalnym. Nie oglądając się na poglądy panujące w optyce, odniósł do światła hipotezę Plancka i doszedł do wniosku, że należy poznać korpuskularną strukturę światła.

Kwantowa teoria światła, czyli teoria fotonów A Einsteina, twierdziła, że ​​światło jest zjawiskiem falowym stale rozchodzącym się w przestrzeni. Jednocześnie energia świetlna, aby była efektywna fizycznie, skupia się tylko w określonych miejscach, przez co światło ma nieciągłą strukturę. Światło można rozpatrywać jako strumień niepodzielnych ziaren energii, kwantów świetlnych lub fotonów. Ich energię wyznacza elementarny kwant działania Plancka i odpowiadająca mu liczba drgań. Światło o różnych barwach składa się z kwantów światła o różnych energiach.

Einsteinowska koncepcja kwantów światła pomogła zrozumieć i zwizualizować zjawisko efektu fotoelektrycznego, którego istotą jest wybijanie elektronów z substancji pod wpływem fal elektromagnetycznych. Eksperymenty wykazały, że o obecności lub braku efektu fotoelektrycznego decyduje nie intensywność padającej fali, ale jej częstotliwość. Jeśli założymy, że każdy elektron jest wyrzucany przez jeden foton, wówczas staje się jasne, że efekt zachodzi tylko wtedy, gdy energia fotonu, a co za tym idzie i jego częstotliwość, jest na tyle wysoka, aby pokonać siły wiązania elektronu z materią.

Prawidłowość tej interpretacji efektu fotoelektrycznego (za tę pracę Einstein otrzymał w 1922 roku Nagrodę Nobla w dziedzinie fizyki) została potwierdzona 10 lat później w eksperymentach amerykańskiego fizyka R.E. Milliken. Odkryty w 1923 roku przez amerykańskiego fizyka A.H. Comptona zjawisko (efekt Comptona), które obserwuje się, gdy atomy ze swobodnymi elektronami poddawane są działaniu bardzo twardego promieni rentgenowskich, ponownie i ostatecznie potwierdziło kwantową teorię światła. Teoria ta jest jedną z najbardziej potwierdzonych eksperymentalnie teorii fizycznych. Jednak falowa natura światła została już mocno ustalona w drodze eksperymentów z interferencją i dyfrakcją.

Doszło do paradoksalnej sytuacji: odkryto, że światło zachowuje się nie tylko jak fala, ale także jak przepływ ciałek. W eksperymentach dyfrakcyjnych i interferencyjnych ujawniają się jego właściwości falowe, a w efekcie fotoelektrycznym ujawniają się jego właściwości korpuskularne. W tym przypadku foton okazał się bardzo szczególnym rodzajem korpuskuły. Główną charakterystykę jego dyskretności – nieodłączną część energii – obliczono za pomocą czysto falowej charakterystyki – częstotliwości y (E = Nu).

Jak wszystkie wielkie odkrycia nauk przyrodniczych, nowa doktryna światła miała fundamentalne znaczenie teoretyczne i epistemologiczne. Dawne stanowisko o ciągłości procesów naturalnych, które zostało gruntownie zachwiane przez M. Plancka, zostało przez Einsteina wyłączone ze znacznie szerszego zakresu zjawisk fizycznych.

Rozwijając idee M. Plancka i A. Einsteina, francuski fizyk Louis de Broche w 1924 roku wysunął ideę falowych właściwości materii. W swojej pracy „Światło i materia” pisał o konieczności posługiwania się pojęciami falowymi i korpuskularnymi nie tylko zgodnie z naukami A. Einsteina w teorii światła, ale także w teorii materii.

L. de Broglie argumentował, że właściwości falowe, podobnie jak korpuskularne, są nieodłączne dla wszystkich rodzajów materii: elektronów, protonów, atomów, cząsteczek, a nawet ciał makroskopowych.

Według de Broglie'a każdemu ciału o masie m poruszającemu się z prędkością V odpowiada fali:

Właściwie podobny wzór był znany wcześniej, ale tylko w odniesieniu do kwantów światła – fotonów.

fizyka mikrokosmosu, mechaniki kwantowej i genetyki

2. Poglądy M. Plancka, Louisa De Broglie, E. Schrödingera, W. Heisenberga, N. Bohra i innych na naturę mikroświata

W 1926 roku austriacki fizyk E. Schrödinger odkrył równanie matematyczne określające zachowanie fal materii, tzw. równanie Schrödingera. Uogólnił to angielski fizyk P. Dirac.

Odważna myśl L. de Broglie o uniwersalnym „dualizmie” cząstek i fal umożliwiła skonstruowanie teorii, za pomocą której można było ująć właściwości materii i światła w ich jedności. W tym przypadku kwanty światła stały się szczególnym momentem ogólnej struktury mikrokosmosu.

Fale materii, które początkowo przedstawiano jako wizualnie rzeczywiste procesy falowe podobne do fal akustycznych, nabrały abstrakcyjnego wyglądu matematycznego i dzięki niemieckiemu fizykowi M. Bornowi otrzymały symboliczne znaczenie jako „fale prawdopodobieństwa”.

Jednak hipoteza de Broglie wymagała eksperymentalnego potwierdzenia. Najbardziej przekonującym dowodem na istnienie falowych właściwości materii było odkrycie dyfrakcji elektronów w 1927 roku przez amerykańskich fizyków K. Davissona i L. Germera. Następnie przeprowadzono eksperymenty mające na celu wykrycie dyfrakcji neutronów, atomów, a nawet cząsteczek. We wszystkich przypadkach wyniki w pełni potwierdziły hipotezę de Broglie. Jeszcze ważniejsze było odkrycie nowych cząstek elementarnych przewidywanych na podstawie układu wzorów rozwiniętej mechaniki falowej.

Uznanie dualizmu korpuskularno-falowego we współczesnej fizyce stało się powszechne. Każdy obiekt materialny charakteryzuje się obecnością zarówno właściwości korpuskularnych, jak i falowych.

Fakt, że ten sam obiekt pojawia się zarówno jako cząstka, jak i fala, zniszczył tradycyjne wyobrażenia.

Forma cząstki oznacza byt zawarty w małej objętości lub skończonym obszarze przestrzeni, podczas gdy fala rozchodzi się po rozległych obszarach przestrzeni. W fizyce kwantowej te dwa opisy rzeczywistości wykluczają się wzajemnie, ale są równie niezbędne, aby w pełni opisać dane zjawiska.

Ostateczne ukształtowanie się mechaniki kwantowej jako spójnej teorii nastąpiło dzięki pracom niemieckiego fizyka W. Heisenberga, który ustalił zasadę nieoznaczoności? oraz duński fizyk N. Bohr, który sformułował zasadę komplementarności, na podstawie której opisuje się zachowanie mikroobiektów.

Istota relacji niepewności W. Heisenberga jest następująca. Załóżmy, że zadaniem jest określenie stanu poruszającej się cząstki. Gdyby można było skorzystać z praw mechaniki klasycznej, sytuacja byłaby prosta: wystarczyłoby wyznaczyć współrzędne cząstki i jej pęd (ilość ruchu). Ale praw mechaniki klasycznej nie można zastosować do mikrocząstek: niemożliwe jest nie tylko praktycznie, ale także w ogóle ustalenie z równą dokładnością położenia i wielkości ruchu mikrocząstki. Tylko jedną z tych dwóch właściwości można określić dokładnie. W swojej książce „Fizyka jądra atomowego” W. Heisenberg odkrywa treść relacji niepewności. Pisze, że nigdy nie jest możliwe jednoczesne poznanie dokładnie obu parametrów – położenia i prędkości. Nigdy nie można jednocześnie wiedzieć, gdzie znajduje się cząstka, jak szybko i w jakim kierunku się porusza. Jeżeli zostanie przeprowadzone doświadczenie, które pokaże dokładnie, gdzie w danym momencie znajduje się cząstka, wówczas ruch zostaje zakłócony do tego stopnia, że ​​cząstki nie można już później odnaleźć. I odwrotnie, przy dokładnym pomiarze prędkości niemożliwe jest określenie położenia cząstki.

Z punktu widzenia mechaniki klasycznej zależność niepewności wydaje się absurdalna. Aby lepiej ocenić obecną sytuację, trzeba mieć na uwadze, że my, ludzie, żyjemy w makroświecie i w zasadzie nie potrafimy zbudować modelu wizualnego, który byłby adekwatny do mikroświata. Relacja niepewności jest wyrazem niemożności obserwacji mikroświata bez jego zakłócania. Każda próba przedstawienia jasnego obrazu procesów mikrofizycznych musi opierać się na interpretacji korpuskularnej lub falowej. W opisie korpuskularnym pomiar przeprowadza się w celu uzyskania dokładnej wartości energii i wielkości ruchu mikrocząstki np. podczas rozpraszania elektronów. Natomiast w eksperymentach mających na celu dokładne określenie położenia wykorzystuje się wyjaśnienie falowe, zwłaszcza gdy elektrony przechodzą przez cienkie płytki lub podczas obserwacji odchylenia promieni.

Istnienie elementarnego kwantu działania stanowi przeszkodę w ustaleniu jednocześnie i z równą dokładnością wielkości, które są „kanonicznie powiązane”, tj. położenie i wielkość ruchu cząstek.

Podstawową zasadą mechaniki kwantowej, wraz ze stosunkiem niepewności, jest zasada komplementarności, której N. Bohr dał następujące sformułowanie: „Pojęcia cząstek i fal uzupełniają się i jednocześnie są sobie sprzeczne, są uzupełniające się obrazy tego, co się dzieje”1.

Sprzeczności we właściwościach falowo-cząsteczkowych mikroobiektów wynikają z niekontrolowanej interakcji mikroobiektów i makrourządzeń. Istnieją dwie klasy urządzeń: w niektórych obiektach kwantowych zachowują się jak fale, w innych - jak cząstki. W eksperymentach nie obserwujemy rzeczywistości jako takiej, a jedynie zjawisko kwantowe, w tym wynik interakcji urządzenia z mikroobiektem. M. Born w przenośni zauważył, że fale i cząstki są „projekcjami” rzeczywistości fizycznej na sytuację eksperymentalną.

Naukowiec badający mikroświat zmienia się w ten sposób z obserwatora w aktora, gdyż rzeczywistość fizyczna zależy od urządzenia, tj. ostatecznie od arbitralności obserwatora. Dlatego N. Bohr uważał, że fizyk nie zna samej rzeczywistości, a jedynie swój z nią kontakt.

Istotną cechą mechaniki kwantowej jest probabilistyczny charakter przewidywań zachowania mikroobiektów, który opisuje się za pomocą funkcji falowej E. Schrödingera. Funkcja falowa określa parametry przyszłego stanu mikroobiektu z różnym stopniem prawdopodobieństwa. Oznacza to, że przeprowadzając te same eksperymenty na tych samych obiektach, za każdym razem otrzymamy inne wyniki. Jednak niektóre wartości będą bardziej prawdopodobne niż inne, np. znany będzie tylko rozkład prawdopodobieństwa wartości.

Biorąc pod uwagę czynniki niepewności, komplementarności i prawdopodobieństwa, N. Bohr podał tzw. „kopenhaską” interpretację istoty teorii kwantów: „Wcześniej powszechnie uważano, że fizyka opisuje Wszechświat. Wiemy już, że fizyka opisuje tylko to, co możemy powiedzieć o Wszechświecie.”1

Stanowisko N. Bohra podzielali W. Heisenberg, M. Born, W. Pauli i wielu innych, mniej znanych fizyków. Zwolennicy kopenhaskiej interpretacji mechaniki kwantowej nie uznawali przyczynowości ani determinizmu w mikroświecie i wierzyli, że podstawą rzeczywistości fizycznej jest fundamentalna niepewność – indeterminizm.

Przedstawicielom szkoły kopenhaskiej ostro sprzeciwił się G.A. Lorentz, M. Planck, M. Laue, A. Einstein, P. Langevin i inni A. Einstein pisał o tym do M. Borna: „W naszych naukowych poglądach rozwinęliśmy się w antypody. Ty wierzysz w Boga grającego w kości, a ja wierzę w całkowitą legalność obiektywnej egzystencji… Jestem głęboko przekonany, że ostatecznie poprzestaną na teorii, w której nie prawdopodobieństwa, ale fakty będą w sposób naturalny połączone.” 2. Sprzeciwiał się zasadzie nieoznaczoności, opowiadał się za determinizmem i rolą przypisywaną aktowi obserwacji w mechanice kwantowej. Dalszy rozwój fizyki pokazał, że rację miał Einstein, który uważał, że teoria kwantowa w dotychczasowej formie jest po prostu niekompletna: fakt, że fizycy nie potrafią jeszcze pozbyć się niepewności, nie świadczy o ograniczeniach metody naukowej, jak argumentował N. Bohr: ale tylko niekompletność mechaniki kwantowej. Einstein podawał coraz więcej nowych argumentów na poparcie swojego punktu widzenia.

Najbardziej znany jest tzw. paradoks Einsteina-Podolskiego-Rosena, czyli paradoks EPR, za pomocą którego chcieli udowodnić niekompletność mechaniki kwantowej. Paradoks jest eksperymentem myślowym: co by się stało, gdyby cząstka składająca się z dwóch protonów rozpadła się w taki sposób, że protony rozleciałyby się w przeciwnych kierunkach? Ze względu na wspólne pochodzenie ich właściwości są ze sobą powiązane lub, jak twierdzą fizycy, korelują ze sobą. Zgodnie z prawem zachowania pędu, jeśli jeden proton leci w górę, drugi musi lecieć w dół. Mierząc pęd jednego protonu, na pewno poznamy pęd drugiego, nawet jeśli przeleciał on na drugi koniec Wszechświata. Pomiędzy cząstkami istnieje nielokalne połączenie, które Einstein nazwał „działaniem duchów na odległość”, w którym każda cząstka w dowolnym momencie wie, gdzie znajduje się druga i co się z nią dzieje.

Paradoks EPR jest niezgodny z niepewnością postulowaną w mechanice kwantowej. Einstein uważał, że istnieją pewne ukryte parametry, których nie bierze się pod uwagę. Pytania: czy w mikroświecie istnieje determinizm i przyczynowość; Czy mechanika kwantowa jest już ukończona? to, czy istnieją ukryte parametry, których nie bierze pod uwagę, było przedmiotem debaty wśród fizyków od ponad pół wieku i znalazło rozstrzygnięcie na poziomie teoretycznym dopiero pod koniec XX wieku.

W 1964 roku J.S. Bela argumentował, że mechanika kwantowa przewiduje silniejszą korelację między połączonymi ze sobą cząstkami, niż przewidywał Einstein.

Twierdzenie Bella stwierdza, że ​​jeśli istnieje jakiś obiektywny Wszechświat i jeśli równania mechaniki kwantowej są strukturalnie podobne do tego Wszechświata, to istnieje jakiś rodzaj nielokalnego połączenia pomiędzy dwiema cząstkami, które kiedykolwiek się zetkną. Istotą twierdzenia Bella jest to, że nie ma izolowanych systemów: każda cząstka Wszechświata jest w „natychmiastowej” komunikacji ze wszystkimi innymi cząstkami. Cały system, nawet jeśli jego części są oddzielone ogromnymi odległościami i nie ma między nimi sygnałów, pól, sił mechanicznych, energii itp., funkcjonuje jako jeden system.

W połowie lat 80. A. Aspect (Uniwersytet w Paryżu) przetestował to połączenie eksperymentalnie, badając polaryzację par fotonów emitowanych przez pojedyncze źródło w kierunku izolowanych detektorów. Porównując wyniki obu serii pomiarów stwierdzono między nimi zgodność. Z punktu widzenia słynnego fizyka D. Bohma, eksperymenty A. Aspecta potwierdziły twierdzenie Bella i potwierdziły stanowisko nielokalnych zmiennych ukrytych, których istnienie zakładał A. Einstein. W interpretacji mechaniki kwantowej D. Bohma nie ma niepewności co do współrzędnych cząstki i jej pędu.

Naukowcy zasugerowali, że komunikacja odbywa się poprzez przekazywanie informacji, których nośnikami są specjalne pola.

3. Genetyka fal

Odkrycia dokonane w mechanice kwantowej wywarły owocny wpływ nie tylko na rozwój fizyki, ale także innych dziedzin nauk przyrodniczych, przede wszystkim biologii, w ramach której rozwinęło się pojęcie genetyki falowej, czyli kwantowej.

Kiedy w 1962 roku J. Watson, A. Wilson i F. Crick otrzymali Nagrodę Nobla za odkrycie podwójnej helisy DNA niosącej informację dziedziczną, genetykom wydawało się, że główne problemy przekazywania informacji genetycznej są bliskie rozwiązania . Cała informacja zapisana jest w genach, których kombinacja w chromosomach komórkowych determinuje program rozwojowy organizmu. Zadanie polegało na rozszyfrowaniu kodu genetycznego, czyli całej sekwencji nukleotydów w DNA.

Rzeczywistość nie spełniła jednak oczekiwań naukowców. Po odkryciu struktury DNA i szczegółowym rozważeniu udziału tej cząsteczki w procesach genetycznych, główny problem zjawiska życia – mechanizmy jego reprodukcji – pozostał w zasadzie nierozwiązany. Odszyfrowanie kodu genetycznego umożliwiło wyjaśnienie syntezy białek. Klasyczni genetycy wyszli z faktu, że cząsteczki genetyczne, DNA, mają naturę materialną i działają jak substancja, reprezentując materialną matrycę, na której zapisany jest materialny kod genetyczny. Zgodnie z nim rozwija się organizm cielesny, materialny i materialny. Jednak kwestii, w jaki sposób czasoprzestrzenna struktura organizmu jest kodowana w chromosomach, nie można rozwiązać na podstawie wiedzy o sekwencji nukleotydów. Radzieccy naukowcy A.A. Lyubishchev i A.G. Gurvich już w latach 20. i 30. wyrażał pogląd, że traktowanie genów jako struktur czysto materialnych jest zdecydowanie niewystarczające do teoretycznego opisu fenomenu życia.

AA Lyubishchev w swojej pracy „O naturze czynników dziedzicznych” opublikowanej w 1925 roku napisał, że geny nie są ani fragmentami chromosomu, ani cząsteczkami enzymów autokatalitycznych, ani rodnikami, ani strukturą fizyczną. Uważał, że gen należy uznać za potencjalną substancję. Lepsze zrozumienie idei AA Lyubishchev promuje analogię cząsteczki genetycznej z zapisem muzycznym. Sam zapis muzyczny jest materialny i reprezentuje ikony na papierze, ale ikony te urzeczywistniają się nie w formie materialnej, ale w dźwiękach, które są falami akustycznymi.

Rozwijając te pomysły, A.G. Gurvich argumentował, że w genetyce „konieczne jest wprowadzenie pojęcia pola biologicznego, którego właściwości są formalnie zapożyczone z pojęć fizycznych”1. Główną ideą A.G. Gurvicha było takie, że rozwój zarodka przebiega według z góry ustalonego programu i przybiera formy, które już istnieją w jego dziedzinie. Jako pierwszy wyjaśnił zachowanie elementów rozwijającego się organizmu jako całości w oparciu o koncepcje terenowe. To właśnie w polu zawarte są formy, jakie przyjmuje zarodek w trakcie rozwoju. Gurvich nazwał formę wirtualną, która w każdym momencie określa wynik procesu rozwoju, formą dynamicznie kształtowaną, wprowadzając tym samym element teleologii do pierwotnego sformułowania pola. Po opracowaniu teorii pola komórkowego rozszerzył ideę pola jako zasady regulującej i koordynującej proces embrionalny, także na funkcjonowanie organizmów. Po uzasadnieniu ogólnej idei dziedziny Gurvich sformułował ją jako uniwersalną zasadę biologii. Odkrył promieniowanie biofotoniczne z komórek.

Idee rosyjskich biologów A.A. Lyubishchev i A.G. Gurvich są gigantycznym osiągnięciem intelektualnym, wyprzedzającym swoją epokę. Istota ich myśli zawarta jest w triadzie:

Geny są dualistyczne – są jednocześnie substancją i polem.

Elementy pola chromosomów wyznaczają przestrzeń – czas organizmu – i w ten sposób kontrolują rozwój biosystemów.

Geny pełnią funkcje estetyczno-wyobrażeniowe i regulujące mowę.

Idee te pozostawały niedoceniane aż do pojawienia się dzieł V.P. Kaznacheeva w latach 60. XX wieku, w którym eksperymentalnie potwierdzono przewidywania naukowców dotyczące obecności polowych form przekazywania informacji w organizmach żywych. Kierunek naukowy w biologii reprezentowany przez szkołę V.P. Kaznacheev, powstał w wyniku licznych podstawowych badań nad tzw. lustrzanym efektem cytopatycznym, wyrażającym się w tym, że żywe komórki oddzielone szkłem kwarcowym, które nie przepuszcza ani jednej cząsteczki substancji, mimo to wymieniają informacje. Po pracy V.P. Kaznacheeva istnienie kanału fali znakowej między komórkami biosystemów nie było już wątpliwości.

Równolegle z eksperymentami V.P. Kaznacheeva, chiński badacz Jiang Kanzhen przeprowadził serię eksperymentów supergenetycznych, które były echem przewidywań A.L. Lyubishchev i A.G. Gurwicz. Różnica między twórczością Jianga Kanzhena polega na tym, że przeprowadzał on eksperymenty nie na poziomie komórkowym, ale na poziomie organizmu. Wyszedł z faktu, że DNA – materiał genetyczny – istnieje w dwóch postaciach: pasywnej (w postaci DNA) i aktywnej (w postaci pola elektromagnetycznego). Pierwsza forma zachowuje kod genetyczny i zapewnia stabilność organizmu, natomiast druga jest w stanie go zmienić, oddziałując na niego sygnałami bioelektrycznymi. Chiński naukowiec zaprojektował sprzęt, który był w stanie odczytywać, przesyłać na odległość i wprowadzać falowe sygnały supergenetyczne z biosystemu dawcy do organizmu akceptora. W rezultacie stworzył niewyobrażalne hybrydy, „zakazane” przez oficjalną genetykę, która działa wyłącznie w oparciu o prawdziwe geny. Tak narodziły się chimery zwierzęce i roślinne: kury-kaczki; kukurydza, z kolb, z których wyrosły kłosy pszenicy itp.

Wybitny eksperymentator Jiang Kanzheng intuicyjnie rozumiał niektóre aspekty eksperymentalnej genetyki fal, którą faktycznie stworzył i wierzył, że nośnikami polowej informacji genetycznej jest stosowane w jego sprzęcie promieniowanie elektromagnetyczne o ultrawysokiej częstotliwości, nie potrafił jednak podać teoretycznego uzasadnienia.

Po eksperymentalnej pracy V.P. Kaznacheeva i Jiang Kanzhen, których nie dało się wyjaśnić w kategoriach tradycyjnej genetyki, istniała pilna potrzeba teoretycznego opracowania modelu genomu falowego, w fizycznym, matematycznym i teoretycznym biologicznym zrozumieniu pracy chromosomu DNA w terenie i wymiary materiału.

Pierwsze próby rozwiązania tego problemu podjęli rosyjscy naukowcy P.P. Gariajew, A.A. Berezin i A.A. Wasiliew, który postawił następujące zadania:

pokazać możliwość dualistycznej interpretacji pracy genomu komórki na poziomie materii i pola w ramach modeli fizycznych i matematycznych;

pokazać możliwość normalnego i „anomalnego” trybu działania genomu komórki za pomocą macierzy fantomowych fal obrazowo-znakowych;

*znaleźć eksperymentalne dowody na poprawność proponowanej teorii.

W ramach opracowanej przez nich teorii, zwanej genetyką falową, wysunięto, uzasadniono i potwierdzono eksperymentalnie kilka podstawowych zasad, które znacznie poszerzyły zrozumienie zjawiska życia i procesów zachodzących w materii ożywionej.

*Geny to nie tylko struktury materialne, ale także falowe
matryce, według których, jakby według szablonów, budowane jest ciało.

Wzajemne przekazywanie informacji między komórkami, które pomaga tworzyć organizm jako integralny system i korygować skoordynowane funkcjonowanie wszystkich układów organizmu, zachodzi nie tylko chemicznie - poprzez syntezę różnych enzymów i innych substancji „sygnałowych”. P.P. Gariajew zasugerował, a następnie udowodnił eksperymentalnie, że komórki, ich chromosomy, DNA, białka przekazują informacje za pomocą pól fizycznych - fal elektromagnetycznych, akustycznych i trójwymiarowych hologramów, odczytywanych za pomocą laserowego światła chromosomalnego i emitujących to światło, które przekształca się w fale radiowe i przekazuje dziedziczną informacji w przestrzeni ciała. Genom organizmów wyższych uważany jest za komputer bioholograficzny, który tworzy czasoprzestrzenną strukturę biosystemów. Nośnikami macierzy pola, na których zbudowany jest organizm, są czoło fal wyznaczane przez genogologramy oraz tzw. solitony DNA – specjalny rodzaj pól akustycznych i elektromagnetycznych wytwarzanych przez aparat genetyczny samego organizmu i zdolnych do pełnienia funkcji pośredniczących w wymianie strategicznych informacji regulacyjnych pomiędzy komórkami, tkankami i narządami biosystemu.

W genetyce falowej potwierdziły się idee Gurvicha – Lyubishcheva – Kaznacheeva – Jianga Kanzhena dotyczące poziomu pola informacji genowej. Inaczej mówiąc, przyjęty w elektrodynamice kwantowej dualizm łączącej jedności „fala – cząstka” czy „materia – pole”, okazał się mieć zastosowanie w biologii, co kiedyś przewidywał AG. Gurvicha i AA. Lubiszczow. Substancja genu i pole genu nie wykluczają się, lecz uzupełniają.

Materia żywa składa się z nieożywionych atomów i cząstek elementarnych, które łączą podstawowe właściwości fal i cząstek, ale te same właściwości są wykorzystywane przez biosystemy jako podstawa wymiany informacji o energii fal. Innymi słowy, cząsteczki genetyczne emitują pole informacyjno-energetyczne, w którym zakodowany jest cały organizm, jego ciało fizyczne i dusza.

*Geny to nie tylko tzw. genetyka
kod, ale także wszystko inne, większość DNA, które kiedyś istniało
uznano za pozbawione sensu.

Ale to właśnie ta duża część chromosomów jest analizowana w ramach genetyki falowej jako główna „inteligentna” struktura wszystkich komórek organizmu: „Niekodujące regiony DNA to nie tylko śmieci, ale struktury przeznaczone dla niektórych cel o niejasnym przeznaczeniu.. niekodujące sekwencje DNA (które stanowią 95-99% genomu) stanowią strategiczną zawartość informacyjną chromosomów... Ewolucja biosystemów stworzyła teksty genetyczne, a genom - biokomputer - biokomputer jako quasi-inteligentny „podmiot”, na swoim poziomie „czytanie i rozumienie” tych „tekstów”1. Ten składnik genomu, który nazywany jest supergeno-kontinuum, tj. supergen, zapewnia rozwój i życie ludzi, zwierząt, roślin, a także programuje naturalne umieranie. Nie ma ostrej i nie do pokonania granicy pomiędzy genami i supergenami; działają one jak jedna całość. Geny dostarczają materialnych „replik” w postaci RNA i białek, a supergeny przekształcają pola wewnętrzne i zewnętrzne, tworząc z nich struktury falowe, w których kodowana jest informacja. Wspólna cecha genetyczna ludzi, zwierząt, roślin i pierwotniaków polega na tym, że na poziomie białka warianty te są praktycznie takie same lub nieco różne u wszystkich organizmów i są kodowane przez geny, które stanowią zaledwie kilka procent całkowitej długości chromosomu. Różnią się jednak poziomem „śmieciowej części” chromosomów, która stanowi prawie całą ich długość.

*Informacje własne chromosomów nie wystarczą do rozwoju
ciało. Chromosomy są fizycznie odwrócone w pewnym wymiarze
Chińska próżnia, która dostarcza głównej części informacji potrzebnych do ich rozwoju
Briona. Aparat genetyczny jest w stanie sam i przy pomocy próżni
generuj struktury fal poleceń, takie jak hologramy, zapewniając
wpływające na rozwój organizmu.

Istotne dla głębszego zrozumienia życia jako zjawiska kosmoplanetarnego były dane eksperymentalne uzyskane przez P.P. Gariajewa, który udowodnił niewystarczalność genomu komórki do pełnego odtworzenia programu rozwojowego organizmu w warunkach izolacji informacji biopola. Doświadczenie polegało na zbudowaniu dwóch komór, w każdej z nich stworzono wszystkie naturalne warunki do rozwoju kijanek z żabich jaj – niezbędny skład powietrza i wody, temperaturę, warunki oświetleniowe, muł stawowy itp. Jedyna różnica polegała na tym, że jedna komora została wykonana z perma-loyu, materiału nieprzewodzącego fal elektromagnetycznych, a druga ze zwykłego metalu, który nie zakłóca fal. W każdej komorze umieszczono taką samą ilość zapłodnionych jaj żab. W wyniku eksperymentu w pierwszej komorze pojawiły się wszystkie dziwadła, które po kilku dniach padły, w drugiej w odpowiednim czasie wykluły się i normalnie rozwinęły kijanki, które później przekształciły się w żaby.

Oczywiste jest, że do normalnego rozwoju kijanek w pierwszej komorze brakowało im jakiegoś czynnika, który niósłby brakującą część informacji dziedzicznej, bez której organizm nie mógłby zostać „złożony” w całości. A ponieważ ściany pierwszej komory odcinały kijanki jedynie od promieniowania, które swobodnie przenikało do drugiej komory, naturalnym jest założenie, że filtrowanie lub zniekształcanie naturalnego tła informacyjnego powoduje deformację i śmierć zarodków. Oznacza to, że komunikacja struktur genetycznych z zewnętrznym polem informacyjnym jest z pewnością niezbędna do harmonijnego rozwoju organizmu. Zewnętrzne (egzobiologiczne) sygnały pola niosą dodatkową i być może główną informację do kontinuum genów Ziemi.

* Teksty DNA i hologramy kontinuum chromosomowego można czytać w wielowymiarowej wersji czasoprzestrzennej i semantycznej. Istnieją języki falowe genomu komórkowego, podobne do ludzkich.

W genetyce falowej na szczególną uwagę zasługuje uzasadnienie jedności fraktalnej (powtarzającej się w różnych skalach) struktury sekwencji DNA i mowy ludzkiej. Fakt, że cztery litery alfabetu genetycznego (adenina, guanina, cytozyna, tymina) w tekstach DNA tworzą struktury fraktalne, odkryto już w 1990 roku i nie wywołał żadnej szczególnej reakcji. Jednak odkrycie genopodobnych struktur fraktalnych w ludzkiej mowie było zaskoczeniem zarówno dla genetyków, jak i lingwistów. Stało się oczywiste, że przyjęte i znane już porównanie DNA z tekstami, które po odkryciu jedności struktury fraktalnej i mowy ludzkiej miało charakter metaforyczny, jest w pełni uzasadnione.

Wraz z pracownikami Instytutu Matematycznego Rosyjskiej Akademii Nauk grupa P.P. Garyaeva opracował teorię fraktalnej reprezentacji języków naturalnych (ludzkich) i genetycznych. Praktyczne testowanie tej teorii w zakresie cech „mowy” DNA wykazało strategicznie poprawną orientację badań.

Podobnie jak w eksperymentach Jiang Kanzhen, grupa P.P. Garyaeva uzyskano efekt translacji i wprowadzenia falowej informacji supergenetycznej od dawcy do akceptora. Powstały urządzenia - generatory pól solitonowych, do których można było wprowadzać algorytmy mowy na przykład w języku rosyjskim lub angielskim. Takie struktury mowy zamieniły się w pola modulowane solitonem – analogi tych, którymi operują komórki w procesie komunikacji falowej. Organizm i jego aparat genetyczny „rozpoznają” takie „frazy falowe” jako własne i postępują zgodnie z zaleceniami mowy wprowadzanymi przez osobę z zewnątrz. Można było na przykład stworzyć pewne algorytmy mowy i werbalne, aby przywrócić nasiona pszenicy i jęczmienia uszkodzone przez promieniowanie. Co więcej, nasiona roślin „rozumiały” tę mowę, niezależnie od tego, w jakim języku była mówiona - rosyjskim, niemieckim czy angielskim. Eksperymenty przeprowadzono na dziesiątkach tysięcy komórek.

Aby przetestować skuteczność programów fal stymulujących wzrost w eksperymentach kontrolnych, do genomu rośliny za pomocą generatorów wprowadzono pseudokody mowy bezsensownej, co nie miało wpływu na metabolizm rośliny, natomiast znaczące wejście w warstwy semantyczne biopola genomu rośliny dało efekt gwałtowne, ale krótkotrwałe przyspieszenie wzrostu.

Rozpoznawanie mowy ludzkiej przez genomy roślin (niezależnie od języka) jest w pełni zgodne ze stanowiskiem genetyki językowej o istnieniu protojęzyka genomu biosystemów na wczesnych etapach ich ewolucji, wspólnego dla wszystkich organizmów i zachowanego w ogólna struktura puli genowej Ziemi. Można tu dostrzec zgodność z ideami klasyka lingwistyki strukturalnej N. Chomsky'ego, który uważał, że wszystkie języki naturalne mają głęboką wrodzoną gramatykę uniwersalną, niezmienną dla wszystkich ludzi i prawdopodobnie dla ich własnych struktur supergenetycznych.

Wniosek

Zasadniczo nowymi punktami w badaniu mikroświata były:

· Każda cząstka elementarna ma zarówno właściwości korpuskularne, jak i falowe.

· Materia może zamienić się w promieniowanie (anihilacja cząstki i antycząstki powoduje powstanie fotonu, czyli kwantu światła).

· Możesz przewidzieć położenie i pęd cząstki elementarnej tylko z pewnym prawdopodobieństwem.

· Urządzenie badające rzeczywistość ma na nią wpływ.

· Dokładny pomiar jest możliwy tylko w przypadku emisji strumienia cząstek, ale nie pojedynczej cząstki.

Bibliografia

1. P.P. Goryaev, „Kod genetyczny fali”, M., 1997.

2. G. Idlis, „Rewolucja w astronomii, fizyce i kosmologii”, M., 1985.

3. AA Gorelow. cykl wykładów „Koncepcje współczesnych nauk przyrodniczych”,

4. Moskiewskie „Centrum” 2001

5. VI. Ławrinienko, wicep. Ratnikov, „Koncepcje współczesnych nauk przyrodniczych”, M., 2000.

6. Koncepcje współczesnych nauk przyrodniczych: Podręcznik dla uniwersytetów / wyd. prof. V.N. Ławrinienko, prof. wiceprezes Ratnikowa. — Wydanie trzecie, poprawione. i dodatkowe -- M.: UNITY-DANA, 2006.

Opublikowano na Allbest.ru

Podobne dokumenty

    Teoria atomowo-molekularnej budowy świata. Obiekty mikroświata: elektron, cząstki podstawowe, fermiony, leptony, hadrony, atom, jądro atomowe i cząsteczka. Rozwój mechaniki kwantowej i zjawisk mikroświata. Pojęcia mikroświata i mechaniki kwantowej.

    streszczenie, dodano 26.07.2010

    Pojawienie się pojęć nieklasycznych w fizyce. Falowa natura elektronu. Eksperyment Davissona i Germera (1927). Cechy kwantowo-mechanicznego opisu mikroświata. Mechanika macierzowa Heisenberga. Struktura elektronowa atomów i cząsteczek.

    prezentacja, dodano 22.10.2013

    Historia narodzin teorii kwantowej. Odkrycie efektu Comptona. Treść koncepcji Rutherforda i Bohra dotyczących budowy atomu. Podstawowe zasady teorii fal Broglie'a i zasady nieoznaczoności Heisenberga. Dualizm korpuskularno-falowy.

    streszczenie, dodano 25.10.2010

    Fizyczne koncepcje starożytności i średniowiecza. Rozwój fizyki w czasach nowożytnych. Przejście od koncepcji klasycznych do relatywistycznych w fizyce. Koncepcja wyłonienia się porządku z chaosu Empedoklesa i Anaksagorasa. Współczesna fizyka makro- i mikroświata.

    streszczenie, dodano 27.12.2016

    Historia rozwoju teorii kwantowej. Kwantowy obraz świata. Podstawowe zasady opisu mechaniki kwantowej. Zasada obserwowalności, klarowność zjawisk mechaniki kwantowej. Związek niepewności. Zasada komplementarności N. Bohra.

    streszczenie, dodano 22.06.2013

    Promieniowanie cieplne, hipoteza kwantowa Plancka. Kwantowe właściwości promieniowania elektromagnetycznego. Wzór Einsteina na efekt fotoelektryczny. Dualizm korpuskularno-falowy materii. Relacje niepewności Heisenberga. Stacjonarne równanie Schrödingera.

    tutorial, dodano 05.06.2013

    Główni przedstawiciele fizyki. Podstawowe prawa i pojęcia fizyczne. Koncepcje klasycznych nauk przyrodniczych. Atomistyczna koncepcja budowy materii. Tworzenie mechanicznego obrazu świata. Wpływ fizyki na medycynę.

    streszczenie, dodano 27.05.2003

    Fizyczne znaczenie fal de Broglie'a. Relacja niepewności Heisenberga. Dualizm cząsteczkowo-falowy właściwości cząstek. Warunek normalizacji funkcji falowej. Równanie Schrödingera jako podstawowe równanie nierelatywistycznej mechaniki kwantowej.

    prezentacja, dodano 14.03.2016

    Zasady fizyki nieklasycznej. Współczesne idee dotyczące materii, przestrzeni i czasu. Podstawowe pojęcia i zasady fizyki kwantowej. Współczesne idee dotyczące cząstek elementarnych. Struktura mikroświata. Podstawowe interakcje fizyczne.

    streszczenie, dodano 30.10.2007

    Wyznaczanie środka ciężkości cząsteczki i opis równania Schrödingera dla pełnej funkcji falowej cząsteczki. Obliczanie energii cząsteczki i układanie równania na część wibracyjną molekularnej funkcji falowej. Ruch elektronów i spektroskopia molekularna.