04.03.2024

Ciągła niepewność. Zasada nieoznaczoności Heisenberga w mechanice kwantowej. Wyrażenie skończonej dostępnej ilości informacji Fishera


Zasada nieoznaczoności jest podstawowym prawem mikroświata. Można to uznać za szczególny wyraz zasady komplementarności.

W mechanice klasycznej cząstka porusza się po określonej trajektorii i w dowolnym momencie można dokładnie określić jej współrzędne i pęd. Jeśli chodzi o mikrocząstki, pomysł ten jest błędny. Mikrocząstka nie ma jasno określonej trajektorii, ma zarówno właściwości cząstki, jak i fali (dwoistość falowo-cząsteczkowa). W tym przypadku pojęcie „długości fali w danym punkcie” nie ma fizycznego znaczenia, a ponieważ pęd mikrocząstki wyraża się poprzez długość fali - P=Do/ l, to wynika z tego, że mikrocząstka o pewnym pędzie ma zupełnie niepewną współrzędną i odwrotnie.

W. Heisenberg (1927), biorąc pod uwagę dwoistą naturę mikrocząstek, doszedł do wniosku, że nie jest możliwe jednoczesne scharakteryzowanie mikrocząstki zarówno współrzędnymi, jak i pędem z jakąkolwiek z góry określoną dokładnością.

Następujące nierówności nazywane są relacjami niepewności Heisenberga:

Δx Δ P X ≥ godz.,Δ yΔp y ≥ godz.,Δ zΔp z H.

Tutaj Δx, Δy, Δz oznaczają przedziały współrzędnych, w których można zlokalizować mikrocząstkę (przedziały te są niepewnościami współrzędnych), Δ P X , Δ P y , Δ P z oznaczają odstępy rzutów impulsów na osie współrzędnych x, y, z, godz– stała Plancka. Zgodnie z zasadą nieoznaczoności im dokładniej zarejestrowany zostanie impuls, tym większa będzie niepewność współrzędnej i odwrotnie.

Zasada korespondencji

W miarę rozwoju nauki i pogłębiania się zgromadzonej wiedzy, nowe teorie stają się coraz dokładniejsze. Nowe teorie pokrywają coraz szersze horyzonty świata materialnego i penetrują niezbadane wcześniej głębiny. Teorie dynamiczne zastępowane są teoriami statycznymi.

Każda fundamentalna teoria ma pewne granice stosowalności. Pojawienie się nowej teorii nie oznacza więc całkowitego zaprzeczenia starej. Zatem ruch ciał w makrokosmosie z prędkościami znacznie mniejszymi od prędkości światła zawsze będzie opisywany klasyczną mechaniką Newtona. Jednak przy prędkościach porównywalnych z prędkością światła (prędkości relatywistyczne) mechanika newtonowska nie ma zastosowania.

Obiektywnie rzecz biorąc, istnieje ciągłość podstawowych teorii fizycznych. Jest to zasada korespondencji, którą można sformułować w następujący sposób: żadna nowa teoria nie może być ważna, jeśli nie zawiera jako przypadku ograniczającego starej teorii odnoszącej się do tych samych zjawisk, ponieważ stara teoria sprawdziła się już w swojej dziedzinie.

3.4. Pojęcie stanu układu. Determinizm Laplace’a

W fizyce klasycznej system rozumiany jest jako zbiór pewnych części połączonych ze sobą w określony sposób. Te części (elementy) systemu mogą na siebie oddziaływać, przy czym zakłada się, że ich wzajemne oddziaływanie można zawsze oceniać z punktu widzenia związków przyczynowo-skutkowych pomiędzy oddziałującymi elementami systemu.

Nazywa się filozoficzną doktryną o obiektywności naturalnego związku i współzależności zjawisk świata materialnego i duchowego determinizm. Centralną koncepcją determinizmu jest istnienie przyczynowość; Przyczynowość ma miejsce, gdy jedno zjawisko powoduje powstanie innego zjawiska (skutku).

Fizyka klasyczna stoi na stanowisku sztywnego determinizmu, który nazywa się Laplace'owskim - to Pierre Simon Laplace ogłosił zasadę przyczynowości jako podstawowe prawo natury. Laplace uważał, że jeśli znane jest położenie elementów (niektórych ciał) układu i działające w nim siły, to można z całkowitą pewnością przewidzieć, jak każde ciało tego układu będzie się poruszać teraz i w przyszłości. Pisał: „Trzeba uważać obecny stan Wszechświata za konsekwencję stanu poprzedniego i przyczynę następnego. Umysł, który w danym momencie znałby wszystkie siły działające w przyrodzie i względne położenie wszystkich jej bytów składowych, gdyby był jeszcze na tyle rozległy, aby uwzględnić wszystkie te dane, ująłby w jedną i tę samą formułę ruchy największych ciał Wszechświata i najlżejszych atomów. Nic nie byłoby dla niego niepewne, a przyszłość, podobnie jak przeszłość, stanęłaby mu przed oczami.” Tradycyjnie to hipotetyczne stworzenie, które mogło (według Laplace'a) przewidzieć rozwój Wszechświata, nazywane jest w nauce „demonem Laplace'a”.

W klasycznym okresie rozwoju nauk przyrodniczych utwierdzano pogląd, że jedynie prawa dynamiczne w pełni charakteryzują przyczynowość w przyrodzie.

Laplace starał się wyjaśniać cały świat, w tym zjawiska fizjologiczne, psychologiczne i społeczne, z punktu widzenia determinizmu mechanistycznego, który uważał za metodologiczną zasadę konstruowania każdej nauki. Laplace widział przykład formy wiedzy naukowej w mechanice niebieskiej. Zatem determinizm Laplace'a zaprzecza obiektywnej naturze przypadku, koncepcji prawdopodobieństwa zdarzenia.

Dalszy rozwój nauk przyrodniczych doprowadził do powstania nowych koncepcji przyczyny i skutku. W przypadku niektórych procesów naturalnych trudno jest określić przyczynę – na przykład rozpad radioaktywny zachodzi losowo. Nie da się jednoznacznie powiązać czasu „wyjścia” cząstki α lub β z jądra z wartością jej energii. Takie procesy są obiektywnie losowe. Szczególnie wiele takich przykładów jest w biologii. We współczesnych naukach przyrodniczych współczesny determinizm oferuje różne, obiektywnie istniejące formy wzajemnych powiązań procesów i zjawisk, z których wiele wyraża się w postaci relacji, które nie mają wyraźnych powiązań przyczynowych, to znaczy nie zawierają momentów generowania jednego przez inny. Są to powiązania czasoprzestrzenne, relacje symetrii i pewnych zależności funkcjonalnych, zależności probabilistyczne itp. Jednakże wszelkie formy realnych interakcji zjawisk powstają w oparciu o uniwersalną czynną przyczynowość, poza którą nie istnieje ani jedno zjawisko rzeczywistości, w tym tzw. zjawiska losowe, w sumie których manifestują się prawa statyczne.

Nauka stale się rozwija i wzbogaca się o nowe koncepcje, prawa i zasady, co wskazuje na ograniczenia determinizmu Laplace'a. Jednak fizyka klasyczna, w szczególności mechanika klasyczna, nadal ma swoją niszę zastosowania. Jego prawa mają zastosowanie do stosunkowo powolnych ruchów, których prędkość jest znacznie mniejsza niż prędkość światła. Znaczenie fizyki klasycznej w epoce nowożytnej dobrze określił jeden z twórców mechaniki kwantowej, Niels Bohr: „Bez względu na to, jak daleko zjawiska wychodzą poza klasyczne wyjaśnienia fizyczne, wszystkie dane eksperymentalne muszą być opisywane przy użyciu klasycznych pojęć. Uzasadnieniem tego jest po prostu dokładne określenie znaczenia słowa „eksperyment”. Słowem „eksperyment” wskazujemy na sytuację, w której możemy powiedzieć innym dokładnie, czego zrobiliśmy i czego się dokładnie nauczyliśmy. Dlatego układ eksperymentu i wyniki obserwacji należy jednoznacznie opisać językiem fizyki klasycznej.

ZASADA NIEPEWNOŚCI:

Zasada nieoznaczoności – podstawowe stanowisko teorii kwantowej, które głosi, że żaden układ fizyczny nie może znajdować się w stanach, w których współrzędne jego środka bezwładności i pędu przyjmują jednocześnie ściśle określone wartości. Ilościowo zasadę nieoznaczoności formułuje się w następujący sposób. Jeżeli ∆x jest niepewnością wartości współrzędnej x środka bezwładności układu, a ∆p x jest niepewnością rzutu pędu p na oś x, to iloczyn tych niepewności musi być rzędu wielkość nie mniejsza niż stała Plancka ħ. Podobne nierówności muszą być spełnione dla dowolnej pary tzw zmienne sprzężone kanonicznie, np. dla współrzędnej y i rzutu pędu p y na oś y, współrzędnej z i rzutu pędu p z. Jeżeli przez niepewności położenia i pędu rozumiemy średniokwadratowe odchylenia tych wielkości fizycznych od ich wartości średnich, to zasada nieoznaczoności ma dla nich postać:

∆p x ∆x ≥ ħ/2, ∆p y ∆y ≥ ħ/2, ∆p z ∆z ≥ ħ/2

Ze względu na małą wielkość ħ w porównaniu z wielkościami makroskopowymi tego samego wymiaru, działanie zasady nieoznaczoności jest istotne głównie dla zjawisk o skalach atomowych (i mniejszych) i nie występuje w doświadczeniach z ciałami makroskopowymi.

Z zasady nieoznaczoności wynika, że ​​im dokładniej zdefiniowana zostanie jedna z wielkości objętych nierównością, tym mniej pewna będzie wartość drugiej. Żaden eksperyment nie jest w stanie jednocześnie dokładnie zmierzyć takich zmiennych dynamicznych; Co więcej, niepewność pomiarów jest związana nie z niedoskonałością technologii eksperymentalnej, ale z obiektywnymi właściwościami materii.

Zasada nieoznaczoności, odkryta w 1927 roku przez niemieckiego fizyka W. Heisenberga, była ważnym krokiem w wyjaśnieniu praw zjawisk wewnątrzatomowych i budowie mechaniki kwantowej. Istotną cechą obiektów mikroskopowych jest ich cząsteczkowo-falowy charakter. Stan cząstki jest całkowicie określony przez funkcję falową (wielkość, która całkowicie opisuje stan mikroobiektu (elektronu, protonu, atomu, cząsteczki) i ogólnie dowolnego układu kwantowego). Cząstkę można wykryć w dowolnym punkcie przestrzeni, w którym funkcja falowa jest różna od zera. Dlatego też wyniki eksperymentów mających na celu wyznaczenie np. współrzędnych mają charakter probabilistyczny.

(Przykład: ruch elektronu reprezentuje propagację jego własnej fali. Jeśli wystrzelisz wiązkę elektronów przez wąski otwór w ścianie, wąska wiązka przejdzie przez nią. Ale jeśli zmniejszysz tę dziurę jeszcze bardziej, tak że jego średnica jest równa długości fali elektronu, wówczas wiązka elektronów rozproszy się we wszystkich kierunkach. I nie jest to odchylenie spowodowane przez najbliższe atomy ściany, które można wyeliminować: dzieje się to z powodu fali natura elektronu Spróbuj przewidzieć, co stanie się obok elektronu, który przeszedł przez ścianę, a okaże się, że jesteś bezsilny, w którym momencie przetnie on ścianę, ale nie możesz powiedzieć, jaki będzie pęd w kierunku poprzecznym Wręcz przeciwnie, aby dokładnie określić, że elektron pojawi się z takim a takim określonym pędem w kierunku początkowym, należy powiększyć dziurę tak, aby fala elektronu przechodziła prosto, tylko nieznacznie rozchodząc się we wszystkich właściwych kierunkach na dyfrakcję, ale wtedy nie da się dokładnie określić, gdzie cząstka elektronu przeszła przez ścianę: dziura jest szeroka. O ile zyskasz na dokładności określenia impulsu, stracisz na dokładności, z jaką znane jest jego położenie.

Jest to zasada nieoznaczoności Heisenberga. Odegrał niezwykle ważną rolę w budowie aparatu matematycznego do opisu fal cząstkowych w atomach. Jego ścisła interpretacja w eksperymentach z elektronami jest następująca: podobnie jak fale świetlne, elektrony opierają się wszelkim próbom wykonywania pomiarów z niezwykłą dokładnością. Zasada ta zmienia także obraz atomu Bohra. Możliwe jest dokładne określenie pędu elektronu (a tym samym poziomu energii) na niektórych jego orbitach, ale jego położenie będzie całkowicie nieznane: nie można powiedzieć, gdzie się znajduje. Stąd jasne jest, że narysowanie wyraźnej orbity elektronu i zaznaczenie jej na niej w postaci okręgu jest pozbawione jakiegokolwiek znaczenia.)

W konsekwencji, przeprowadzając serię identycznych doświadczeń, według tej samej definicji współrzędnych, w identycznych układach, otrzymuje się za każdym razem inne wyniki. Jednak niektóre wartości będą bardziej prawdopodobne niż inne, co oznacza, że ​​będą pojawiać się częściej. Względna częstotliwość występowania pewnych wartości współrzędnych jest proporcjonalna do kwadratu modułu funkcji falowej w odpowiednich punktach przestrzeni. Dlatego najczęściej uzyskiwane wartości współrzędnych będą takie, które leżą w pobliżu maksimum funkcji falowej. Ale pewne rozproszenia w wartościach współrzędnych, pewna niepewność (rzędu połowy szerokości maksimum) są nieuniknione. To samo dotyczy pomiaru impulsów.

Zatem pojęć współrzędnych i pędu w klasycznym sensie nie można zastosować do obiektów mikroskopowych. Używając tych wielkości do opisu układu mikroskopowego, konieczne jest wprowadzenie do ich interpretacji poprawek kwantowych. Ta poprawka dotyczy zasady nieoznaczoności.

Zasada nieoznaczoności energii ε i czasu t ma nieco inne znaczenie:

∆ε ∆t ≥ ħ

Jeżeli układ znajduje się w stanie stacjonarnym, to z zasady nieoznaczoności wynika, że ​​energię układu nawet w tym stanie można mierzyć jedynie z dokładnością nie większą niż ħ/∆t, gdzie ∆t jest czasem trwania proces pomiaru. Powodem tego jest oddziaływanie układu z urządzeniem pomiarowym, a zasada nieoznaczoności zastosowana w tym przypadku oznacza, że ​​energię oddziaływania pomiędzy urządzeniem pomiarowym a badanym układem można uwzględnić jedynie z dokładnością ħ/ ∆t.

Pod wpływem powodzenia teorii naukowych, zwłaszcza teorii grawitacji Newtona, francuski naukowiec Pierre Laplace na początku XIX wieku. rozwinęło się spojrzenie na Wszechświat jako obiekt całkowicie zdeterminowany. Laplace uważał, że musi istnieć zbiór praw naukowych, które pozwolą przewidzieć wszystko, co może się wydarzyć we Wszechświecie, jeśli tylko znany będzie pełny opis jego stanu w pewnym momencie. Na przykład, gdybyśmy znali pozycje Słońca i planet odpowiadające określonemu momentowi w czasie, to korzystając z praw Newtona, moglibyśmy obliczyć, w jakim stanie Układ Słoneczny znajdowałby się w dowolnym innym momencie. W tym przypadku determinizm jest dość oczywisty, ale Laplace poszedł dalej, argumentując, że istnieją podobne prawa dla wszystkiego, łącznie z ludzkim zachowaniem.

Doktryna determinizmu naukowego spotkała się z silnym oporem wielu, którzy uważali, że ogranicza to wolną interwencję Boga w naszym świecie; niemniej jednak idea ta pozostała powszechną hipotezą naukową na samym początku naszego stulecia. Jedną z pierwszych oznak konieczności porzucenia determinizmu były wyniki obliczeń dwóch angielskich fizyków, Johna Rayleigha i Jamesa Jeansa, z których wynikało, że gorący obiekt, taki jak gwiazda, powinien przez cały czas promieniować nieskończenie więcej energii. Zgodnie ze znanymi wówczas prawami gorące ciało powinno w równym stopniu emitować fale elektromagnetyczne o wszystkich częstotliwościach (na przykład fale radiowe, światło widzialne, promieniowanie rentgenowskie). Oznacza to, że taka sama ilość energii musi zostać wyemitowana zarówno w postaci fal o częstotliwościach od jednego do dwóch milionów milionów fal na sekundę, jak i w postaci fal o częstotliwościach mieszczących się w przedziale od dwóch do trzech milionów milionów fal na sekundę . A ponieważ istnieje nieskończenie wiele różnych częstotliwości, całkowita wypromieniowana energia musi być nieskończona.

Aby pozbyć się tego pozornie absurdalnego wniosku, niemiecki naukowiec Max Planck w 1900 roku przyjął hipotezę, że światło, promieniowanie rentgenowskie i inne fale nie mogą być emitowane z dowolną intensywnością, lecz muszą być emitowane tylko w określonych porcjach, które Planck nazwał kwantami. Ponadto Planck zasugerował, że każdy kwant promieniowania niesie ze sobą pewną ilość energii, która jest tym większa, im wyższa jest częstotliwość fal. Tym samym przy odpowiednio dużej częstotliwości energia jednego kwantu może przekroczyć dostępną ilość energii, w związku z czym promieniowanie o wysokiej częstotliwości zostanie stłumione, a tempo utraty energii przez ciało będzie skończone.

Hipoteza kwantowa doskonale zgadzała się z obserwowanymi intensywnościami promieniowania gorących ciał, ale jej znaczenie dla determinizmu było jasne dopiero w 1926 roku, kiedy inny niemiecki naukowiec, Werner Heisenberg, sformułował słynną zasadę nieoznaczoności. Aby przewidzieć położenie i prędkość cząstki, trzeba umieć dokonać dokładnych pomiarów jej położenia i prędkości w danej chwili. Oczywiście, aby to zrobić, światło musi być skierowane na cząstkę. Część fal świetlnych zostanie przez nią rozproszona i w ten sposób określimy położenie cząstki w przestrzeni. Jednak dokładność tego pomiaru nie będzie większa niż odległość między grzbietami dwóch sąsiednich fal, dlatego do dokładnego pomiaru położenia cząstki potrzebne jest światło o krótkiej długości fali. Zgodnie z hipotezą Plancka światło nie może być użyte w dowolnie małych porcjach, a część nie jest mniejsza niż jeden kwant. Ten kwant światła zakłóci ruch cząstki i w nieprzewidywalny sposób zmieni jej prędkość. Ponadto im dokładniej zmierzona zostanie pozycja, tym krótsze powinny być długości fal światła, a zatem tym większa będzie energia jednego kwantu. Oznacza to, że zaburzenie prędkości cząstek będzie większe. Innymi słowy, im dokładniej spróbujesz zmierzyć położenie cząstki, tym mniej dokładne będą pomiary jej prędkości i odwrotnie. Heisenberg wykazał, że niepewność położenia cząstki pomnożona przez niepewność co do jej prędkości i masy nie może być mniejsza niż pewna liczba, którą obecnie nazywamy stałą Plancka. Liczba ta nie zależy ani od sposobu pomiaru położenia czy prędkości cząstki, ani od rodzaju tej cząstki, tzn. zasada nieoznaczoności Heisenberga jest podstawową, obowiązującą właściwością naszego świata.



Zasada niepewności ma daleko idące konsekwencje związane z naszym postrzeganiem otaczającego nas świata. Nawet po ponad pięćdziesięciu latach wielu filozofów nie zgodziło się z nimi ostatecznie, a konsekwencje te są nadal przedmiotem dyskusji. Zasada nieoznaczoności oznaczała koniec marzeń Laplace'a o teorii naukowej, która dostarczyłaby całkowicie deterministyczny model Wszechświata: w istocie jak można dokładnie przewidzieć przyszłość, nie będąc nawet w stanie dokonać dokładnych pomiarów stanu Wszechświata w chwili obecnej za chwilę! Oczywiście możemy sobie wyobrazić, że istnieje pewien zbiór praw całkowicie determinujący zdarzenia dla jakiejś nadprzyrodzonej istoty, która jest w stanie obserwować aktualny stan Wszechświata, nie zakłócając go w żaden sposób. Jednak takie modele Wszechświata nie interesują nas, zwykłych śmiertelników. Może lepiej byłoby zastosować zasadę „ekonomii”, którą nazywamy zasadą „brzytwy Ockhama” (W. Ockham /1285‑1349/ – filozof angielski. Istota zasady „brzytwy Ockhama”: pojęcia, których nie da się zweryfikować w doświadczeniu, należy usunąć z nauki – przyp. red.) usunąć i wyciąć wszystkie zapisy teorii, które nie są obserwowalne. Przyjmując to podejście, Werner Heisenberg, Erwin Schrödinger i Paul Dirac w latach dwudziestych naszego wieku zrewidowali mechanikę i doszli do nowej teorii – mechaniki kwantowej, która opierała się na zasadzie nieoznaczoności. W mechanice kwantowej cząstki nie mają już tak określonych i wzajemnie niezależnych cech, jak położenie w przestrzeni i prędkość, których nie można zaobserwować. Zamiast tego charakteryzują się stanem kwantowym, który jest kombinacją położenia i prędkości.

Mechanika kwantowa, ogólnie rzecz biorąc, nie przewiduje, że obserwacja powinna dać jakiś pojedynczy, określony wynik. Zamiast tego przewiduje szereg różnych wyników i podaje prawdopodobieństwo każdego z nich. Oznacza to, że gdybyśmy wykonali ten sam pomiar dla wielu identycznych układów, których stany początkowe są takie same, to stwierdzilibyśmy, że w jednej liczbie przypadków wynik pomiaru jest równy A, w drugiej - B itd. Mamy można przewidzieć, w ilu przypadkach wynik będzie równy A i B, ale nie da się określić wyniku każdego konkretnego pomiaru. Tym samym mechanika kwantowa wprowadza do nauki nieunikniony element nieprzewidywalności i losowości. Einstein bardzo ostro wypowiadał się przeciwko tej koncepcji, pomimo ogromnej roli, jaką sam odegrał w jej rozwoju. Za ogromny wkład w teorię kwantową Einstein otrzymał Nagrodę Nobla. Nigdy jednak nie zgodziłby się, że wszechświatem rządzi przypadek. Wszystkie uczucia Einsteina zostały wyrażone w jego słynnym stwierdzeniu: „Bóg nie gra w kości”. Jednak większość innych naukowców była skłonna zaakceptować mechanikę kwantową, ponieważ doskonale zgadzała się ona z eksperymentem. Mechanika kwantowa jest rzeczywiście niezwykłą teorią, leżącą u podstaw niemal całej współczesnej nauki i technologii. Zasady mechaniki kwantowej stanowią podstawę działania półprzewodników i układów scalonych, które stanowią najważniejszą część urządzeń elektronicznych, takich jak telewizory i komputery elektroniczne. Współczesna chemia i biologia opierają się na mechanice kwantowej. Jedynymi dziedzinami fizyki, które nie wykorzystują jeszcze dobrze mechaniki kwantowej, są teoria grawitacji i teoria wielkoskalowej struktury Wszechświata.

Pomimo tego, że promieniowanie świetlne składa się z fal, to jednak zgodnie z hipotezą Plancka światło w pewnym sensie zachowuje się tak, jakby było utworzone z cząstek: emisja i absorpcja światła następuje tylko w postaci porcji, czyli kwantów. Zasada nieoznaczoności Heisenberga mówi, że cząstki w pewnym sensie zachowują się jak fale: nie mają określonego położenia w przestrzeni, ale są nad nią „rozmazane” z pewnym rozkładem prawdopodobieństwa. Teoria mechaniki kwantowej wykorzystuje zupełnie nowy aparat matematyczny, który nie opisuje już samego świata rzeczywistego w oparciu o wyobrażenia o cząstkach i falach; koncepcje te można obecnie przypisać jedynie wynikom obserwacji na tym świecie. Tak więc w mechanice kwantowej powstaje dualizm fal cząstkowych: w niektórych przypadkach wygodnie jest uważać cząstki za fale, podczas gdy w innych lepiej jest uważać fale za cząstki. Wynika z tego jeden ważny wniosek: możemy zaobserwować tzw. interakcję pomiędzy dwiema falami cząsteczkowymi. Grzbiety fal jednego z nich mogą na przykład pokrywać się z dolinami drugiego. Następnie dwie fale raczej się znoszą niż wzmacniają, sumując się, jak można się spodziewać, w wyższe fale (rysunek 4.1). Dobrze znanym przykładem interferencji światła są bańki mydlane mieniące się różnymi kolorami tęczy. Zjawisko to zachodzi na skutek odbicia światła od dwóch powierzchni cienkiej warstwy wody, która tworzy bańkę. Białe światło zawiera wszystkie rodzaje długości fal odpowiadające różnym kolorom. Grzbiety niektórych fal odbitych od jednej z powierzchni błony mydlanej pokrywają się z dolinami fal o tej samej długości odbitych od drugiej powierzchni bańki. Wtedy odbitemu światłu będzie brakować kolorów odpowiadających tym długościom fal, a odbite światło będzie wielokolorowe.

Zatem dzięki dualizmowi, który powstał w mechanice kwantowej, cząstki również mogą ulegać interferencji. Dobrze znanym przykładem takiej interferencji cząstek jest eksperyment z dwiema szczelinami w ekranie (rys. 4.2). Rozważmy ekran, w którym wycięto dwie wąskie równoległe szczeliny. Po jednej stronie ekranu ze szczelinami znajduje się źródło światła o określonej barwie (tj. o określonej długości fali). Większość światła pada na powierzchnię ekranu, jednak niewielka jego część przechodzi przez szczeliny. Następnie wyobraźmy sobie ekran obserwacyjny zainstalowany po drugiej stronie ekranu ze szczelinami od źródła światła. Wtedy fale świetlne z obu szczelin dotrą do dowolnego punktu na ekranie obserwacyjnym. Jednak odległość, jaką światło przebywa przez szczeliny od źródła do ekranu, będzie, ogólnie rzecz biorąc, inna. Oznacza to, że fale przechodzące przez szczeliny będą uderzać w ekran w różnych fazach: w niektórych miejscach będą się osłabiać, a w innych wzmacniać. W rezultacie na ekranie pojawi się charakterystyczny obraz złożony z ciemnych i jasnych pasków.

Co zaskakujące, dokładnie te same pasma pojawiają się, gdy zastąpimy źródło światła źródłem cząstek, powiedzmy elektronów, emitowanych z określoną prędkością (oznacza to, że odpowiadają one falom o określonej długości). Opisane zjawisko jest tym bardziej dziwne, że jeśli jest tylko jedna szczelina, to nie pojawiają się żadne pasma, a na ekranie pojawia się po prostu równomierny rozkład elektronów. Można by założyć, że kolejna szczelina po prostu zwiększyłaby liczbę elektronów uderzających w każdy punkt ekranu, ale w rzeczywistości z powodu interferencji liczba tych elektronów w niektórych miejscach, wręcz przeciwnie, maleje. Gdyby przez szczeliny przechodził jednocześnie jeden elektron, to można by się spodziewać, że każdy z nich przejdzie albo przez jedną, albo przez drugą szczelinę, tj. będzie zachowywał się tak, jakby szczelina, przez którą przeszedł, była jedyną szczeliną, a następnie Na ekranie powinien pojawić się równomierny rozkład. Jednak w rzeczywistości pasma pojawiają się nawet wtedy, gdy elektrony są uwalniane pojedynczo. Dlatego każdy elektron musi przejść przez obie szczeliny jednocześnie!

Zjawisko interferencji cząstek stało się decydujące dla naszego zrozumienia budowy atomów, tych najmniejszych „cegiełek”, które są brane pod uwagę w chemii i biologii, z których zbudowani jesteśmy my sami i wszystko wokół nas. Na początku stulecia uważano, że atomy przypominają Układ Słoneczny: elektrony (cząstki przenoszące ujemny ładunek elektryczny), podobnie jak planety wokół Słońca, krążą wokół centralnie położonego rdzenia, który jest naładowany dodatnio. Założono, że elektrony są utrzymywane na swoich orbitach przez siły przyciągające pomiędzy ładunkami dodatnimi i ujemnymi, podobnie jak przyciąganie grawitacyjne między Słońcem a planetami uniemożliwia planetom opuszczenie swoich orbit. To wyjaśnienie napotkało następującą trudność: przed pojawieniem się mechaniki kwantowej prawa mechaniki i elektryczności przewidywały, że elektrony stracą energię i w związku z tym będą kręcić się spiralnie w kierunku środka atomu i opadać na jądro. Oznaczałoby to, że atomy, a wraz z nimi oczywiście cała materia, powinny szybko zapaść się w stan o bardzo dużej gęstości. Szczególne rozwiązanie tego problemu znalazł w 1913 roku duński naukowiec Niels Bohr. Bohr postulował, że elektrony nie mogą poruszać się po żadnych orbitach, a jedynie po tych, które leżą w określonych odległościach od jądra centralnego. Gdyby przyjąć także założenie, że na każdej takiej orbicie może znajdować się tylko jeden lub dwa elektrony, to problem zapadnięcia się atomu zostałby rozwiązany, gdyż wtedy elektrony poruszając się po spirali w kierunku centrum, mogłyby wypełniać jedynie orbity o minimalnych promieniach i energiach .

Model ten doskonale wyjaśnił budowę najprostszego atomu - atomu wodoru, w którym wokół jądra obraca się tylko jeden elektron. Nie było jednak jasne, jak rozszerzyć to samo podejście na bardziej złożone atomy. Co więcej, założenie o ograniczonej liczbie dozwolonych orbit wydawało się dość arbitralne. Trudność tę rozwiązała nowa teoria – mechanika kwantowa. Okazało się, że elektron obracający się wokół jądra można sobie wyobrazić jako falę, której długość zależy od jego prędkości. Na niektórych orbitach mieści się całkowita (a nie ułamkowa) liczba długości fal elektronów. Poruszając się po tych orbitach, grzbiety fal znajdą się w tym samym miejscu na każdej orbicie, w związku z czym fale będą się sumować; takie orbity są klasyfikowane jako orbity dozwolone Bohra. A w przypadku orbit, na których nie mieści się całkowita liczba długości fal elektronów, każdy grzbiet podczas rotacji elektronów jest wcześniej czy później kompensowany przez dolinę; takie orbity nie będą dozwolone.

Amerykański naukowiec Richard Feynman wpadł na piękny sposób, który umożliwia wizualizację dualności falowo-cząsteczkowej. Feynman wprowadził tzw. sumowanie po trajektoriach. W tym podejściu, w przeciwieństwie do klasycznej, niekwantowej teorii, nie zakłada się, że cząstka powinna mieć jedną trajektorię w czasoprzestrzeni, wręcz przeciwnie, uważa się, że cząstka może przemieszczać się z punktu A do B dowolną możliwą trajektorią. ścieżka. Z każdą trajektorią są związane dwie liczby: jedna opisuje wielkość fali, a druga odpowiada jej położeniu w cyklu (grzbiet lub dolina). Aby określić prawdopodobieństwo przejścia z A do B, należy zsumować fale dla wszystkich tych trajektorii. Jeśli porównasz kilka sąsiadujących trajektorii, ich fazy lub pozycje w cyklu będą się znacznie różnić. Oznacza to, że fale odpowiadające takim trajektoriom będą się niemal całkowicie znosić. Jednakże w przypadku niektórych rodzin sąsiednich trajektorii fazy będą się nieznacznie zmieniać podczas przechodzenia z trajektorii na trajektorię, a odpowiadające im fale nie będą się wzajemnie znosić. Takie trajektorie należą do orbit dozwolonych Bohra.

Na podstawie takich pomysłów, zapisanych w specyficznej formie matematycznej, można było, stosując stosunkowo prosty schemat, obliczyć dopuszczalne orbity dla bardziej złożonych atomów, a nawet dla cząsteczek składających się z kilku atomów, spajanych przez elektrony, których orbity obejmują ponad jedno jądro. Ponieważ struktura cząsteczek i reakcje zachodzące między nimi są podstawą całej chemii i całej biologii, mechanika kwantowa w zasadzie pozwala nam przewidzieć wszystko, co widzimy wokół nas, z dokładnością, na jaką pozwala zasada nieoznaczoności. (Jednak w praktyce obliczenia dla układów zawierających wiele elektronów okazują się tak skomplikowane, że po prostu nie da się ich przeprowadzić).

Wydaje się, że wielkoskalowa struktura Wszechświata jest zgodna z ogólną teorią względności Einsteina. Teorię tę nazywa się klasyczną, ponieważ nie uwzględnia zasady nieoznaczoności mechaniki kwantowej, którą należy uwzględnić, aby była spójna z innymi teoriami. Nie zaprzeczamy wynikom obserwacji z uwagi na fakt, że wszystkie pola grawitacyjne z którymi zwykle mamy do czynienia są bardzo słabe. Jednak zgodnie z omówionymi powyżej twierdzeniami o osobliwości pole grawitacyjne powinno stać się bardzo silne co najmniej w dwóch sytuacjach: w przypadku czarnych dziur i w przypadku Wielkiego Wybuchu. W tak silnych polach efekty kwantowe muszą być znaczące. Dlatego klasyczna ogólna teoria względności, przewidząc punkty, w których gęstość staje się nieskończona, w pewnym sensie przewidziała swoje własne niepowodzenie dokładnie w taki sam sposób, w jaki klasyczna (tj. niekwantowa) mechanika skazała się na niepowodzenie, stwierdzając, że atomy muszą zapadać się, aż ich gęstość stanie się nieskończona. Nie mamy jeszcze kompletnej teorii, w której ogólna teoria względności byłaby spójnie połączona z mechaniką kwantową, ale znamy pewne właściwości przyszłej teorii. O tym, co wynika z tych właściwości w odniesieniu do czarnych dziur i Wielkiego Wybuchu, porozmawiamy w kolejnych rozdziałach. Przejdźmy teraz do najnowszych prób ujednolicenia naszego rozumienia wszystkich pozostałych sił natury w jedną, ujednoliconą teorię kwantową.

Zasady nieoznaczoności Heisenberga są jednym z problemów mechaniki kwantowej, ale najpierw zajmiemy się rozwojem nauk fizycznych jako całości. Pod koniec XVII wieku Izaak Newton położył podwaliny pod nowoczesną mechanikę klasyczną. To on sformułował i opisał jej podstawowe prawa, za pomocą których można przewidzieć zachowanie otaczających nas ciał. Pod koniec XIX wieku przepisy te wydawały się nienaruszalne i miały zastosowanie do wszystkich praw natury. Wydawało się, że problemy fizyki jako nauki zostały rozwiązane.

Naruszenie praw Newtona i narodziny mechaniki kwantowej

Ale, jak się okazało, w tamtym czasie o właściwościach Wszechświata wiedziano znacznie mniej, niż się wydawało. Pierwszym kamieniem, który zakłócił harmonię mechaniki klasycznej, było jej nieposłuszeństwo prawom propagacji fal świetlnych. Zatem bardzo młoda wówczas nauka elektrodynamiki została zmuszona do opracowania zupełnie innego zestawu zasad. Ale dla fizyków teoretycznych pojawił się problem: jak sprowadzić dwa systemy do wspólnego mianownika. Nawiasem mówiąc, nauka wciąż pracuje nad rozwiązaniem tego problemu.

Mit wszechogarniającej mechaniki Newtona został ostatecznie zniszczony dzięki głębszym badaniu struktury atomów. Brytyjczyk Ernest Rutherford odkrył, że atom nie jest cząstką niepodzielną, jak wcześniej sądzono, ale sam w sobie zawiera neutrony, protony i elektrony. Co więcej, ich zachowanie było także całkowicie niezgodne z postulatami mechaniki klasycznej. Jeśli w makroświecie grawitacja w dużej mierze determinuje naturę rzeczy, to w świecie cząstek kwantowych jest to niezwykle mała siła oddziaływania. W ten sposób położono podwaliny mechaniki kwantowej, która również miała swoje własne aksjomaty. Jedną ze znaczących różnic pomiędzy tymi najmniejszymi systemami a światem, do którego jesteśmy przyzwyczajeni, jest zasada nieoznaczoności Heisenberga. Wyraźnie pokazał potrzebę innego podejścia do tych systemów.

Zasada nieoznaczoności Heisenberga

W pierwszej ćwierci XX wieku mechanika kwantowa stawiała swoje pierwsze kroki, a fizycy na całym świecie dopiero zdawali sobie sprawę, co wynika z jej zapisów dla nas i jakie otwiera przed nami perspektywy. Niemiecki fizyk teoretyczny Werner Heisenberg sformułował swoje słynne zasady w 1927 roku. Zasady Heisenberga polegają na tym, że nie da się jednocześnie obliczyć położenia przestrzennego i prędkości obiektu kwantowego. Główną tego przyczyną jest fakt, że dokonując pomiaru, już wpływamy na mierzony system, zakłócając go. Jeśli w znanym nam makrokosmosie oceniamy jakiś przedmiot, to nawet patrząc na niego, widzimy odbicia światła od niego.

Jednak zasada nieoznaczoności Heisenberga mówi, że choć w makrokosmosie światło nie ma wpływu na mierzony obiekt, to w przypadku cząstek kwantowych fotony (lub inne pomiary pochodne) mają znaczący wpływ na cząstkę. Jednocześnie warto zauważyć, że fizyka kwantowa jest w stanie osobno zmierzyć prędkość lub położenie ciała w przestrzeni. Jednak im dokładniejsze są nasze odczyty prędkości, tym mniej będziemy wiedzieć o naszym położeniu przestrzennym. I wzajemnie. Oznacza to, że zasada nieoznaczoności Heisenberga stwarza pewne trudności w przewidywaniu zachowania cząstek kwantowych. Dosłownie wygląda to tak: zmieniają swoje zachowanie, gdy próbujemy je obserwować.