04.03.2024

Incertezza costante. Il principio di indeterminazione di Heisenberg nella meccanica quantistica. Espressione della quantità finita di informazioni di Fisher disponibili


Il principio di indeterminazione è una legge fondamentale del micromondo. Può essere considerata una particolare espressione del principio di complementarità.

Nella meccanica classica, una particella si muove lungo una certa traiettoria e in ogni momento è possibile determinarne con precisione le coordinate e la quantità di moto. Per quanto riguarda le microparticelle, questa idea non è corretta. Una microparticella non ha una traiettoria ben definita; ha sia le proprietà di una particella che le proprietà di un'onda (dualità onda-particella). In questo caso, il concetto di "lunghezza d'onda in un dato punto" non ha alcun significato fisico e poiché la quantità di moto di una microparticella è espressa attraverso la lunghezza d'onda - P=A/ l, ne consegue che una microparticella con un certo impulso ha una coordinata completamente incerta, e viceversa.

W. Heisenberg (1927), tenendo conto della duplice natura delle microparticelle, giunse alla conclusione che è impossibile caratterizzare simultaneamente una microparticella con entrambe le coordinate e la quantità di moto con una precisione predeterminata.

Le seguenti disuguaglianze sono chiamate relazioni di incertezza di Heisenberg:

ΔxΔ P X ≥ h,Δ Δp y ≥ h,Δ z· Δp z H.

Qui Δx, Δy, Δz significano intervalli di coordinate in cui una microparticella può essere localizzata (questi intervalli sono incertezze di coordinate), Δ P X , Δ P , Δ P z intervalli medi delle proiezioni degli impulsi sugli assi coordinati x, y, z, h– Costante di Planck. Secondo il principio di indeterminazione, quanto più accuratamente viene registrato l'impulso, tanto maggiore sarà l'incertezza nella coordinata, e viceversa.

Principio di corrispondenza

Man mano che la scienza si sviluppa e la conoscenza accumulata si approfondisce, le nuove teorie diventano più accurate. Nuove teorie coprono orizzonti sempre più ampi del mondo materiale e penetrano in profondità prima inesplorate. Le teorie dinamiche sono sostituite da quelle statiche.

Ogni teoria fondamentale ha determinati limiti di applicabilità. Pertanto, l’emergere di una nuova teoria non significa la completa negazione di quella vecchia. Pertanto, il movimento dei corpi nel macrocosmo con velocità significativamente inferiori a quella della luce sarà sempre descritto dalla meccanica newtoniana classica. Tuttavia, a velocità paragonabili a quella della luce (velocità relativistiche), la meccanica newtoniana non è applicabile.

Oggettivamente c'è continuità tra le teorie fisiche fondamentali. Questo è il principio di corrispondenza, che può essere formulato come segue: nessuna nuova teoria può essere valida se non contiene come caso limite la vecchia teoria relativa agli stessi fenomeni, poiché la vecchia teoria ha già dato prova di sé nel suo campo.

3.4. Il concetto di stato del sistema. Determinismo di Laplace

Nella fisica classica per sistema si intende l'insieme di alcune parti collegate tra loro in un certo modo. Queste parti (elementi) del sistema possono influenzarsi a vicenda e si presume che la loro interazione possa sempre essere valutata dal punto di vista delle relazioni di causa-effetto tra gli elementi interagenti del sistema.

Si chiama la dottrina filosofica dell'oggettività della relazione naturale e dell'interdipendenza dei fenomeni del mondo materiale e spirituale determinismo. Il concetto centrale del determinismo è l'esistenza causalità; La causalità si verifica quando un fenomeno dà origine a un altro fenomeno (effetto).

La fisica classica si trova sulla posizione di un rigido determinismo, chiamato laplaceiano: fu Pierre Simon Laplace a proclamare il principio di causalità come una legge fondamentale della natura. Laplace credeva che se si conosce la posizione degli elementi (alcuni corpi) di un sistema e le forze che agiscono in esso, è possibile prevedere con assoluta certezza come si muoverà ciascun corpo di questo sistema ora e in futuro. Scriveva: “Dobbiamo considerare lo stato attuale dell'Universo come conseguenza dello stato precedente e come causa di quello successivo. Uno spirito che in un dato momento conoscesse tutte le forze operanti nella natura e le posizioni relative di tutti i suoi enti costitutivi, se fosse ancora così vasto da tener conto di tutti questi dati, abbraccerebbe in una sola formula i movimenti dei corpi più grandi dell’Universo e degli atomi più leggeri. Nulla sarebbe incerto per lui e il futuro, come il passato, sarebbe davanti ai suoi occhi”. Tradizionalmente, questa ipotetica creatura, che potrebbe (secondo Laplace) predire lo sviluppo dell’Universo, è chiamata nella scienza “il demone di Laplace”.

Nel periodo classico dello sviluppo delle scienze naturali, si affermava l'idea che solo le leggi dinamiche caratterizzano pienamente la causalità in natura.

Laplace cercò di spiegare il mondo intero, compresi i fenomeni fisiologici, psicologici e sociali, dal punto di vista del determinismo meccanicistico, che considerava un principio metodologico per la costruzione di qualsiasi scienza. Laplace vide un esempio della forma della conoscenza scientifica nella meccanica celeste. Pertanto, il determinismo laplaceano nega la natura oggettiva del caso, il concetto di probabilità di un evento.

L'ulteriore sviluppo delle scienze naturali portò a nuove idee di causa ed effetto. Per alcuni processi naturali è difficile determinarne la causa: ad esempio, il decadimento radioattivo avviene in modo casuale. È impossibile mettere in relazione inequivocabilmente il momento della “partenza” di una particella α o β dal nucleo e il valore della sua energia. Tali processi sono oggettivamente casuali. Ci sono soprattutto molti esempi simili in biologia. Nella scienza naturale moderna, il determinismo moderno offre varie forme oggettivamente esistenti di interconnessione di processi e fenomeni, molti dei quali sono espressi sotto forma di relazioni che non hanno connessioni causali pronunciate, cioè non contengono momenti di generazione di uno per un altro. Queste sono connessioni spazio-temporali, relazioni di simmetria e alcune dipendenze funzionali, relazioni probabilistiche, ecc. Tuttavia, tutte le forme di interazioni reali dei fenomeni si formano sulla base della causalità attiva universale, al di fuori della quale non esiste un singolo fenomeno della realtà, compresi i cosiddetti fenomeni casuali, nell'insieme dei quali si manifestano leggi statiche.

La scienza continua a svilupparsi e ad arricchirsi di nuovi concetti, leggi e principi, il che indica i limiti del determinismo laplaceano. Tuttavia, la fisica classica, in particolare la meccanica classica, ha ancora oggi la sua nicchia di applicazione. Le sue leggi sono abbastanza applicabili per movimenti relativamente lenti, la cui velocità è significativamente inferiore alla velocità della luce. L’importanza della fisica classica nel periodo moderno è stata ben definita da uno dei creatori della meccanica quantistica, Niels Bohr: “Non importa quanto i fenomeni vadano oltre la spiegazione fisica classica, tutti i dati sperimentali devono essere descritti utilizzando concetti classici. La logica di ciò è semplicemente quella di affermare il significato preciso della parola “esperimento”. Con la parola “esperimento” indichiamo una situazione in cui possiamo raccontare agli altri esattamente cosa abbiamo fatto e cosa esattamente abbiamo imparato. Pertanto, l’impostazione sperimentale e i risultati dell’osservazione devono essere descritti in modo inequivocabile nel linguaggio della fisica classica”.

PRINCIPIO DI INCERTEZZA:

Il principio di indeterminazione – una posizione fondamentale della teoria quantistica, la quale afferma che qualsiasi sistema fisico non può trovarsi in stati in cui le coordinate del suo centro di inerzia e della quantità di moto assumono contemporaneamente valori ben definiti ed esatti. Quantitativamente, il principio di indeterminazione è formulato come segue. Se ∆x è l'incertezza nel valore della coordinata x del centro di inerzia del sistema, e ∆p x è l'incertezza nella proiezione della quantità di moto p sull'asse x, allora il prodotto di queste incertezze deve essere nell'ordine di magnitudo non inferiore alla costante di Planck ħ. Disuguaglianze simili devono essere soddisfatte per qualsiasi coppia di cosiddetti coniugare canonicamente le variabili, ad esempio, per la coordinata y e la proiezione della quantità di moto p y sull'asse y, la coordinata z e la proiezione della quantità di moto p z. Se intendiamo le incertezze di posizione e quantità di moto come deviazioni quadratiche medie di queste quantità fisiche dai loro valori medi, allora il loro principio di indeterminazione ha la forma:

∆p x ∆x ≥ ħ/2, ∆p y ∆y ≥ ħ/2, ∆p z ∆z ≥ ħ/2

A causa della piccolezza di ħ rispetto a quantità macroscopiche della stessa dimensione, l'azione del principio di indeterminazione è significativa principalmente per fenomeni su scala atomica (e più piccola) e non appare negli esperimenti con corpi macroscopici.

Dal principio di indeterminazione segue che quanto più precisamente è definita una delle quantità comprese nella disuguaglianza, tanto meno certo è il valore dell'altra. Nessun esperimento può misurare contemporaneamente e con precisione tali variabili dinamiche; Inoltre, l'incertezza nelle misurazioni non è associata all'imperfezione della tecnologia sperimentale, ma alle proprietà oggettive della materia.

Il principio di indeterminazione, scoperto nel 1927 dal fisico tedesco W. Heisenberg, fu un passo importante nel chiarire le leggi dei fenomeni intraatomici e nella costruzione della meccanica quantistica. Una caratteristica essenziale degli oggetti microscopici è la loro natura di onda-particella. Lo stato della particella è completamente determinato dalla funzione d'onda (una quantità che descrive completamente lo stato di un microoggetto (elettrone, protone, atomo, molecola) e, in generale, di qualsiasi sistema quantistico). Una particella può essere rilevata in qualsiasi punto dello spazio in cui la funzione d'onda è diversa da zero. Pertanto, i risultati degli esperimenti per determinare, ad esempio, le coordinate sono di natura probabilistica.

(Esempio: il movimento di un elettrone rappresenta la propagazione della propria onda. Se si lancia un fascio di elettroni attraverso un foro stretto nel muro: il fascio stretto lo attraverserà. Ma se si rende questo foro ancora più piccolo, in modo tale che il suo diametro è pari alla lunghezza d'onda dell'elettrone, quindi il fascio di elettroni si disperderà in tutte le direzioni. E questa non è una deviazione causata dagli atomi più vicini della parete, che può essere eliminata: ciò avviene a causa dell'onda natura dell'elettrone. Prova a prevedere cosa accadrà accanto all'elettrone che ha attraversato il muro, e ti ritroverai impotente, in quale punto interseca il muro, ma non puoi dire quale slancio nella direzione trasversale avrà acquisire Al contrario, per determinare con precisione che l'elettrone apparirà con questo o quel certo slancio nella direzione iniziale, è necessario allargare il foro in modo che l'onda dell'elettrone passi diritta, divergendo solo leggermente in tutte le direzioni dovute alla diffrazione. Ma allora è impossibile dire esattamente dove la particella elettronica è passata attraverso la parete: il buco è largo. Per quanto si guadagna nella precisione nel determinare l'impulso, si perde nella precisione con cui si conosce la sua posizione.

Questo è il principio di indeterminazione di Heisenberg. Ha svolto un ruolo estremamente importante nella costruzione di un apparato matematico per descrivere le onde delle particelle negli atomi. La sua interpretazione rigorosa negli esperimenti con gli elettroni è questa: come le onde luminose, gli elettroni resistono a qualsiasi tentativo di eseguire misurazioni con estrema precisione. Questo principio cambia anche il quadro dell'atomo di Bohr. È possibile determinare con esattezza la quantità di moto di un elettrone (e quindi il suo livello energetico) in alcune delle sue orbite, ma la sua posizione sarà del tutto sconosciuta: nulla si può dire su dove si trovi. Da qui è chiaro che disegnare un'orbita chiara di un elettrone e segnarla su di essa sotto forma di un cerchio è privo di significato.)

Di conseguenza, quando si conducono una serie di esperimenti identici, secondo la stessa definizione di coordinate, in sistemi identici, si ottengono ogni volta risultati diversi. Tuttavia, alcuni valori saranno più probabili di altri, ovvero appariranno più spesso. La frequenza relativa di occorrenza di determinati valori di coordinate è proporzionale al quadrato del modulo della funzione d'onda nei punti corrispondenti nello spazio. Pertanto, molto spesso i valori delle coordinate ottenuti saranno quelli che si trovano vicino al massimo della funzione d'onda. Ma una certa dispersione nei valori delle coordinate, qualche incertezza (nell'ordine della metà dell'ampiezza massima) sono inevitabili. Lo stesso vale per la misurazione degli impulsi.

Pertanto, i concetti di coordinata e quantità di moto in senso classico non possono essere applicati a oggetti microscopici. Quando si utilizzano queste quantità per descrivere un sistema microscopico, è necessario introdurre correzioni quantistiche nella loro interpretazione. Questo emendamento riguarda il principio di indeterminazione.

Il principio di indeterminazione per l’energia ε e il tempo t ha un significato leggermente diverso:

∆ε ∆t ≥ ħ

Se il sistema è in uno stato stazionario, allora dal principio di indeterminazione segue che l’energia del sistema, anche in questo stato, può essere misurata solo con una precisione non superiore a ħ/∆t, dove ∆t è la durata del processo di misurazione. La ragione di ciò è l'interazione del sistema con il dispositivo di misurazione e il principio di indeterminazione applicato in questo caso significa che l'energia di interazione tra il dispositivo di misurazione e il sistema in esame può essere presa in considerazione solo con una precisione di ħ /∆t.

Influenzato dal successo delle teorie scientifiche, in particolare dalla teoria della gravitazione di Newton, lo scienziato francese Pierre Laplace all'inizio del XIX secolo. fu sviluppata una visione dell'Universo come un oggetto completamente determinato. Laplace credeva che dovesse esistere un insieme di leggi scientifiche che consentissero di prevedere tutto ciò che può accadere nell'Universo, se solo fosse nota una descrizione completa del suo stato in un determinato momento nel tempo. Ad esempio, se conoscessimo la posizione del Sole e dei pianeti corrispondente a un determinato momento nel tempo, utilizzando le leggi di Newton potremmo calcolare in quale stato si troverebbe il sistema solare in qualsiasi altro momento nel tempo. In questo caso il determinismo è abbastanza ovvio, ma Laplace è andato oltre, sostenendo che esistono leggi simili per ogni cosa, compreso il comportamento umano.

La dottrina del determinismo scientifico incontrò una forte resistenza da parte di molti che ritenevano che ciò limitasse il libero intervento di Dio nel nostro mondo; tuttavia, questa idea rimase un'ipotesi scientifica comune proprio all'inizio del nostro secolo. Una delle prime indicazioni della necessità di abbandonare il determinismo furono i risultati dei calcoli di due fisici inglesi, John Rayleigh e James Jeans, dai quali ne conseguì che un oggetto caldo come una stella dovrebbe irradiare continuamente più energia. Secondo le leggi allora conosciute, un corpo caldo dovrebbe emettere ugualmente onde elettromagnetiche di tutte le frequenze (ad esempio onde radio, luce visibile, raggi X). Ciò significa che la stessa quantità di energia deve essere emessa sia sotto forma di onde con frequenze comprese tra uno e due milioni di milioni di onde al secondo, sia sotto forma di onde con frequenze comprese tra due e tre milioni di milioni di onde al secondo . E poiché esistono infinite frequenze diverse, l'energia totale irradiata deve essere infinita.

Per liberarsi da questa conclusione apparentemente assurda, lo scienziato tedesco Max Planck nel 1900 accettò l'ipotesi che la luce, i raggi X e le altre onde non possono essere emesse con intensità arbitraria, ma devono essere emesse solo in determinate porzioni, che Planck chiamò quanti. Inoltre, Planck suggerì che ogni quanto di radiazione trasporta una certa quantità di energia, tanto maggiore quanto più alta è la frequenza delle onde. Pertanto, a una frequenza sufficientemente elevata, l'energia di un quanto può superare la quantità di energia disponibile e, di conseguenza, la radiazione ad alta frequenza verrà soppressa e la velocità con cui il corpo perde energia sarà finita.

L’ipotesi quantistica era in ottimo accordo con le intensità di radiazione osservate dei corpi caldi, ma cosa significasse per il determinismo non fu chiaro fino al 1926, quando un altro scienziato tedesco, Werner Heisenberg, formulò il famoso principio di indeterminazione. Per prevedere quale sarà la posizione e la velocità di una particella, è necessario essere in grado di effettuare misurazioni accurate della sua posizione e velocità nel momento presente. Ovviamente, per fare ciò, la luce deve essere diretta verso la particella. Alcune delle onde luminose verranno disperse da esso e quindi determineremo la posizione della particella nello spazio. Tuttavia, la precisione di questa misurazione non sarà maggiore della distanza tra le creste di due onde adiacenti, e quindi è necessaria la luce a lunghezza d'onda corta per misurare con precisione la posizione della particella. Secondo l'ipotesi di Planck, la luce non può essere utilizzata in porzioni arbitrariamente piccole, e non esiste porzione più piccola di un quanto. Questo quanto di luce disturberà il movimento della particella e ne modificherà in modo imprevedibile la velocità. Inoltre, quanto più accuratamente viene misurata la posizione, tanto più corte dovrebbero essere le lunghezze d'onda della luce e, quindi, maggiore sarà l'energia di un quanto. Ciò significa che la perturbazione della velocità delle particelle diventerà maggiore. In altre parole, quanto più accuratamente si tenta di misurare la posizione di una particella, tanto meno accurate saranno le misurazioni della sua velocità, e viceversa. Heisenberg dimostrò che l'incertezza sulla posizione di una particella, moltiplicata per l'incertezza sulla sua velocità e sulla sua massa, non può essere inferiore a un certo numero, che ora è chiamato costante di Planck. Questo numero non dipende né dal modo in cui viene misurata la posizione o la velocità della particella, né dal tipo di questa particella, cioè il principio di indeterminazione di Heisenberg è una proprietà fondamentale e obbligatoria del nostro mondo.



Il principio di incertezza ha conseguenze di vasta portata legate alla nostra percezione del mondo che ci circonda. Anche dopo più di cinquant’anni, molti filosofi non sono stati definitivamente d’accordo con loro, e queste conseguenze sono ancora oggetto di dibattito. Il principio di indeterminazione significò la fine dei sogni di Laplace di una teoria scientifica che fornisse un modello completamente deterministico dell'Universo: come si può infatti prevedere con precisione il futuro senza nemmeno essere in grado di effettuare misurazioni accurate dello stato attuale dell'Universo? momento! Naturalmente, possiamo immaginare che esista un certo insieme di leggi che determinano completamente gli eventi per qualche essere soprannaturale che è in grado di osservare lo stato attuale dell'Universo senza disturbarlo in alcun modo. Tuttavia, tali modelli dell'Universo non interessano a noi comuni mortali. Sarebbe meglio, forse, utilizzare il principio di “economia”, che è chiamato il principio del “rasoio di Occam” (W. Ockham /1285‑1349/ - filosofo inglese. L'essenza del principio del “rasoio di Occam”: i concetti che non possono essere verificati nell'esperienza dovrebbero essere rimossi dalla scienza - ndr) prendere ed eliminare tutte le disposizioni della teoria che non sono osservabili. Adottando questo approccio, Werner Heisenberg, Erwin Schrödinger e Paul Dirac negli anni '20 del nostro secolo hanno rivisto la meccanica e sono giunti a una nuova teoria: la meccanica quantistica, basata sul principio di indeterminazione. Nella meccanica quantistica le particelle non hanno più caratteristiche così definite e reciprocamente indipendenti come la posizione nello spazio e la velocità, che non sono osservabili. Sono invece caratterizzati da uno stato quantistico che è una combinazione di posizione e velocità.

La meccanica quantistica, in generale, non prevede che un'osservazione debba avere un unico risultato definito. Invece, prevede una serie di risultati diversi e fornisce la probabilità di ciascuno di essi. Ciò significa che se effettuassimo la stessa misurazione per molti sistemi identici, i cui stati iniziali sono gli stessi, troveremmo che in un numero di casi il risultato della misurazione è uguale ad A, in un altro - B, ecc. può prevedere in quanti casi approssimativamente il risultato sarà uguale ad A e B, ma è impossibile determinare il risultato di ciascuna misurazione specifica. Pertanto, la meccanica quantistica introduce nella scienza un inevitabile elemento di imprevedibilità o casualità. Einstein si è espresso molto duramente contro questo concetto, nonostante l'enorme ruolo che lui stesso ha svolto nel suo sviluppo. Per il suo enorme contributo alla teoria quantistica, Einstein vinse il Premio Nobel. Ma non potrebbe mai essere d'accordo sul fatto che l'universo è governato dal caso. Tutti i sentimenti di Einstein furono espressi nella sua famosa affermazione: "Dio non gioca a dadi". Tuttavia, la maggior parte degli altri scienziati erano propensi ad accettare la meccanica quantistica perché concordava perfettamente con l’esperimento. La meccanica quantistica è davvero una teoria notevole ed è alla base di quasi tutta la scienza e la tecnologia moderne. I principi della meccanica quantistica costituiscono la base per il funzionamento dei semiconduttori e dei circuiti integrati, che costituiscono la parte più importante dei dispositivi elettronici come televisori e computer elettronici. La chimica e la biologia moderne si basano sulla meccanica quantistica. Le uniche aree della fisica che non fanno ancora buon uso della meccanica quantistica sono la teoria della gravità e la teoria della struttura su larga scala dell'Universo.

Nonostante la radiazione luminosa sia costituita da onde, tuttavia, secondo l'ipotesi di Planck, la luce in un certo senso si comporta come se fosse formata da particelle: l'emissione e l'assorbimento della luce avviene solo sotto forma di porzioni, o quanti. Il principio di indeterminazione di Heisenberg dice che le particelle, in un certo senso, si comportano come onde: non hanno una posizione specifica nello spazio, ma sono “spalmate” su di esso con una certa distribuzione di probabilità. La teoria quantistica utilizza un apparato matematico completamente nuovo, che non descrive più il mondo reale stesso sulla base di idee su particelle e onde; questi concetti ora possono essere attribuiti solo ai risultati delle osservazioni in questo mondo. Nasce così, nella meccanica quantistica, il dualismo delle onde parziali: in alcuni casi è conveniente considerare le particelle come onde, mentre in altri è meglio considerare le onde come particelle. Da ciò segue una conclusione importante: possiamo osservare la cosiddetta interferenza tra due onde di particelle. Le creste delle onde di uno di essi possono, ad esempio, coincidere con le depressioni di un altro. Le due onde poi si annullano a vicenda anziché amplificarsi a vicenda, riassumendosi, come ci si aspetterebbe, in onde più elevate (Figura 4.1). Un noto esempio di interferenza luminosa sono le bolle di sapone che brillano nei diversi colori dell’arcobaleno. Questo fenomeno si verifica a seguito della riflessione della luce su due superfici di un sottile film d'acqua, che forma una bolla. La luce bianca contiene tutti i tipi di lunghezze d'onda corrispondenti a diversi colori. Le creste di alcune onde riflesse da una delle superfici della pellicola di sapone coincidono con le depressioni delle onde della stessa lunghezza riflesse dalla seconda superficie della bolla. Quindi la luce riflessa mancherà dei colori corrispondenti a queste lunghezze d'onda e la luce riflessa apparirà multicolore.

Quindi, grazie al dualismo sorto nella meccanica quantistica, anche le particelle possono subire interferenze. Un esempio ben noto di tale interferenza di particelle è un esperimento con due fenditure in uno schermo (Fig. 4.2). Consideriamo uno schermo in cui vengono tagliate due strette fenditure parallele. Su un lato dello schermo con le fessure si trova una sorgente luminosa di un certo colore (cioè una certa lunghezza d'onda). La maggior parte della luce colpisce la superficie dello schermo, ma una piccola parte passa attraverso le fessure. Successivamente, immagina uno schermo di osservazione installato sull'altro lato dello schermo con fessure provenienti dalla sorgente luminosa. Quindi le onde luminose provenienti da entrambe le fenditure raggiungeranno qualsiasi punto sullo schermo di osservazione. Ma la distanza percorsa dalla luce attraverso le fessure dalla sorgente allo schermo sarà, in generale, diversa. Ciò significa che le onde che passano attraverso le fessure colpiranno lo schermo in fasi diverse: in alcuni punti si indeboliranno a vicenda, in altri si rafforzeranno a vicenda. Di conseguenza, sullo schermo verrà visualizzata un'immagine caratteristica composta da strisce scure e chiare.

Sorprendentemente, appaiono esattamente le stesse bande quando si sostituisce la sorgente luminosa con una sorgente di particelle, diciamo elettroni, emesse ad una certa velocità (questo significa che corrispondono a onde di una certa lunghezza). Il fenomeno descritto è tanto più strano perché se c'è una sola fenditura non compaiono bande e sullo schermo appare una distribuzione semplicemente uniforme degli elettroni. Si potrebbe supporre che un'altra fessura aumenterebbe semplicemente il numero di elettroni che colpiscono ciascun punto dello schermo, ma in realtà, a causa dell'interferenza, il numero di questi elettroni in alcuni punti, al contrario, diminuisce. Se un elettrone fosse fatto passare attraverso le fenditure alla volta, allora ci si aspetterebbe che ciascuno di essi passi attraverso una fenditura o l'altra, cioè si comporti come se la fenditura attraverso la quale è passato fosse l'unica, e quindi un elettrone alla volta. sullo schermo dovrebbe apparire una distribuzione uniforme. Tuttavia, in realtà, le bande compaiono anche quando gli elettroni vengono rilasciati uno alla volta. Pertanto, ogni elettrone deve passare attraverso entrambe le fenditure contemporaneamente!

Il fenomeno dell'interferenza delle particelle è diventato decisivo per la nostra comprensione della struttura degli atomi, quei più piccoli “mattoni” considerati in chimica e biologia e da cui siamo costruiti noi stessi e tutto ciò che ci circonda. All’inizio del secolo, si pensava che gli atomi fossero come il sistema solare: gli elettroni (particelle che trasportano una carica elettrica negativa), come i pianeti attorno al Sole, ruotano attorno a un nucleo centrale carico positivamente. Si presumeva che gli elettroni fossero trattenuti nelle loro orbite da forze attrattive tra cariche positive e negative, in modo simile a come l'attrazione gravitazionale tra il Sole e i pianeti impedisce ai pianeti di lasciare le loro orbite. Questa spiegazione incontrava la seguente difficoltà: prima dell'avvento della meccanica quantistica, le leggi della meccanica e dell'elettricità prevedevano che gli elettroni avrebbero perso energia e quindi avrebbero spiraleggiato verso il centro dell'atomo e sarebbero caduti sul nucleo. Ciò significherebbe che gli atomi, e con essi, ovviamente, tutta la materia, collasserebbero rapidamente in uno stato di densità molto elevata. Una soluzione particolare a questo problema fu trovata nel 1913 dallo scienziato danese Niels Bohr. Bohr ipotizzò che gli elettroni non potessero muoversi in nessuna orbita, ma solo in quelle che si trovano a determinate distanze specifiche dal nucleo centrale. Se si presupponesse anche che ciascuna di queste orbite possa contenere solo uno o due elettroni, allora il problema del collasso atomico sarebbe risolto, perché allora gli elettroni, muovendosi a spirale verso il centro, potrebbero riempire solo orbite con raggi ed energie minimi .

Questo modello spiegava perfettamente la struttura dell'atomo più semplice: l'atomo di idrogeno, in cui solo un elettrone ruota attorno al nucleo. Non era chiaro, però, come estendere lo stesso approccio ad atomi più complessi. Inoltre, l'ipotesi di un numero limitato di orbite consentite sembrava del tutto arbitraria. Questa difficoltà è stata risolta da una nuova teoria: la meccanica quantistica. Si è scoperto che un elettrone che ruota attorno a un nucleo può essere immaginato come un'onda, la cui lunghezza dipende dalla sua velocità. Lungo alcune orbite si adatta un numero intero (anziché frazionario) di lunghezze d'onda degli elettroni. Muovendosi lungo queste orbite, le creste delle onde finiranno nello stesso punto su ciascuna orbita, e quindi le onde si sommeranno; tali orbite sono classificate come orbite consentite da Bohr. E per quelle orbite lungo le quali un numero intero di lunghezze d'onda degli elettroni non si adatta, ciascuna cresta mentre gli elettroni ruotano viene prima o poi compensata da un avvallamento; tali orbite non saranno consentite.

Lo scienziato americano Richard Feynman ha escogitato un modo meraviglioso che rende possibile visualizzare la dualità onda-particella. Feynman introdusse la cosiddetta sommatoria sulle traiettorie. In questo approccio, a differenza della teoria classica non quantistica, non si presuppone che la particella debba avere un'unica traiettoria nello spazio-tempo, ma al contrario si ritiene che la particella possa spostarsi da A a B lungo qualsiasi possibile sentiero. Ad ogni traiettoria sono associati due numeri: uno descrive la dimensione dell'onda, l'altro corrisponde alla sua posizione nel ciclo (cresta o valle). Per determinare le probabilità di transizione da A a B è necessario sommare le onde di tutte queste traiettorie. Se si confrontano diverse traiettorie vicine, le loro fasi o posizioni nel ciclo differiranno notevolmente. Ciò significa che le onde corrispondenti a tali traiettorie si annulleranno quasi completamente a vicenda. Tuttavia, per alcune famiglie di traiettorie vicine, le fasi cambieranno poco quando si passa da una traiettoria all'altra e le onde corrispondenti non si annulleranno a vicenda. Tali traiettorie appartengono alle orbite permesse di Bohr.

Sulla base di tali idee, scritte in una forma matematica specifica, è stato possibile, utilizzando uno schema relativamente semplice, calcolare le orbite consentite per atomi più complessi e anche per molecole costituite da più atomi tenuti insieme da elettroni le cui orbite coprono più di un nucleo. Poiché la struttura delle molecole e le reazioni che avvengono tra loro sono la base di tutta la chimica e di tutta la biologia, la meccanica quantistica in linea di principio ci consente di prevedere tutto ciò che vediamo intorno a noi con la precisione consentita dal principio di indeterminazione. (Tuttavia, in pratica, i calcoli per sistemi contenenti molti elettroni risultano così complessi che sono semplicemente impossibili da eseguire).

La struttura su larga scala dell'Universo sembra obbedire alla teoria generale della relatività di Einstein. Questa teoria è detta classica perché non tiene conto del principio di incertezza quantomeccanico, che deve essere preso in considerazione per essere coerente con le altre teorie. Non contraddiciamo i risultati delle osservazioni per il fatto che tutti i campi gravitazionali con cui solitamente abbiamo a che fare sono molto deboli. Tuttavia, secondo i teoremi di singolarità sopra discussi, il campo gravitazionale dovrebbe diventare molto intenso in almeno due situazioni: nel caso dei buchi neri e nel caso del big bang. In campi così forti, gli effetti quantistici devono essere significativi. Pertanto, la teoria generale classica della relatività, avendo previsto i punti in cui la densità diventa infinita, in un certo senso ha previsto il proprio fallimento esattamente nello stesso modo in cui la meccanica classica (cioè non quantistica) si è condannata al fallimento concludendo che gli atomi devono collassano finché la loro densità diventa infinita. Non disponiamo ancora di una teoria completa in cui la teoria generale della relatività possa essere coerentemente combinata con la meccanica quantistica, ma conosciamo alcune proprietà della teoria futura. Parleremo di ciò che consegue da queste proprietà in relazione ai buchi neri e al big bang nei capitoli successivi. Passiamo ora agli ultimi tentativi di unificare la nostra comprensione di tutte le altre forze della natura in un'unica teoria quantistica unificata.

I principi di indeterminazione di Heisenberg sono uno dei problemi della meccanica quantistica, ma prima passiamo allo sviluppo della scienza fisica nel suo complesso. Alla fine del XVII secolo, Isaac Newton gettò le basi per la meccanica classica moderna. È stato lui a formulare e descrivere le sue leggi fondamentali, con l'aiuto delle quali si può prevedere il comportamento dei corpi che ci circondano. Alla fine del XIX secolo queste disposizioni sembravano inviolabili e applicabili a tutte le leggi della natura. I problemi della fisica come scienza sembravano essere stati risolti.

Violazione delle leggi di Newton e nascita della meccanica quantistica

Ma, come si è scoperto, a quel tempo si sapeva molto meno sulle proprietà dell'Universo di quanto sembrasse. La prima pietra che sconvolse l'armonia della meccanica classica fu la sua disobbedienza alle leggi di propagazione delle onde luminose. Pertanto, la giovanissima scienza dell'elettrodinamica a quel tempo fu costretta a sviluppare un insieme di regole completamente diverse. Ma per i fisici teorici si presentò un problema: come portare due sistemi a un denominatore comune. A proposito, la scienza sta ancora lavorando per trovare una soluzione a questo problema.

Il mito della meccanica newtoniana onnicomprensiva fu finalmente distrutto con uno studio più approfondito della struttura degli atomi. Il britannico Ernest Rutherford scoprì che l'atomo non è una particella indivisibile, come si pensava, ma contiene esso stesso neutroni, protoni ed elettroni. Inoltre il loro comportamento era del tutto incoerente con i postulati della meccanica classica. Se nel macromondo la gravità determina in gran parte la natura delle cose, allora nel mondo delle particelle quantistiche è una forza di interazione estremamente piccola. Così furono gettate le basi della meccanica quantistica, che aveva anche i suoi assiomi. Una delle differenze significative tra questi sistemi più piccoli e il mondo a cui siamo abituati è il principio di indeterminazione di Heisenberg. Ha chiaramente dimostrato la necessità di un approccio diverso a questi sistemi.

Principio di indeterminazione di Heisenberg

Nel primo quarto del XX secolo la meccanica quantistica ha mosso i primi passi e solo i fisici di tutto il mondo si sono resi conto di ciò che segue dalle sue disposizioni per noi e delle prospettive che apre. Il fisico teorico tedesco Werner Heisenberg formulò i suoi famosi principi nel 1927. I principi di Heisenberg consistono nel fatto che è impossibile calcolare contemporaneamente sia la posizione spaziale che la velocità di un oggetto quantistico. La ragione principale di ciò è che quando misuriamo, influenziamo già il sistema misurato, disturbandolo. Se nel macrocosmo che ci è familiare valutiamo un oggetto, anche quando lo guardiamo, vediamo il riflesso della luce da esso.

Ma il principio di indeterminazione di Heisenberg afferma che sebbene nel macrocosmo la luce non abbia alcun effetto sull'oggetto misurato, nel caso delle particelle quantistiche i fotoni (o qualsiasi altra misurazione derivata) hanno un'influenza significativa sulla particella. Allo stesso tempo, è interessante notare che la fisica quantistica è perfettamente in grado di misurare separatamente la velocità o la posizione di un corpo nello spazio. Ma quanto più accurate saranno le nostre letture della velocità, tanto meno sapremo della nostra posizione spaziale. E viceversa. Cioè, il principio di indeterminazione di Heisenberg crea alcune difficoltà nel prevedere il comportamento delle particelle quantistiche. Letteralmente assomiglia a questo: cambiano il loro comportamento quando proviamo a osservarli.