14.02.2024

“Problemi moderni di fisica. Due approcci al problema del rapporto tra geometria e fisica Problemi di fisica moderna vol 3



Aronov R.A., Shemyakinsky V.M. Due approcci al problema del rapporto tra geometria e fisica // Filosofia della scienza. vol. 7: Formazione di un moderno paradigma delle scienze naturali - M.: , 2001

Nella fisica moderna, l'opinione prevalente è espressa più chiaramente da W. Heisenberg nell'articolo “Sviluppo di concetti nella fisica del ventesimo secolo”: l'approccio di Einstein al problema del rapporto tra geometria e fisica “sopravvalutava le capacità della geometria punto di vista. La struttura granulare della materia è una conseguenza della teoria quantistica, non della geometria; La teoria quantistica riguarda una proprietà fondamentale della nostra descrizione della Natura, che non era contenuta nella geometrizzazione dei campi di forza di Einstein”.

Naturalmente si può discutere se l'approccio di Einstein abbia sopravvalutato le possibilità del punto di vista geometrico oppure no. Ma sembra certo che l’affermazione di Heisenberg: “la struttura granulare della materia è una conseguenza della teoria quantistica, non della geometria”, sia imprecisa. La materia ha una struttura prima, al di fuori e indipendentemente da ogni teoria. Per quanto riguarda la geometria, anche se dal contesto dell'articolo di Heisenberg non è chiaro di cosa stiamo parlando esattamente: l'aspetto epistemologico del problema (sulla geometria come frammento della matematica o quello ontologico (sulla geometria dello spazio reale), tuttavia, in entrambi i casi la struttura della materia non è una conseguenza della geometria. Nel primo, per lo stesso motivo per cui non è una conseguenza della teoria quantistica, nel secondo, perché la geometria stessa dello spazio reale è uno degli aspetti della struttura della materia.

È vero, ovviamente, che la teoria quantistica riflette tali proprietà della natura, informazioni sulle quali non erano contenute nella geometrizzazione dei campi di forza di Einstein. Ma il punto di vista geometrico e la forma specifica in cui viene presentato nel tentativo di Einstein di geometrizzare i campi di forza non sono affatto la stessa cosa. In definitiva, è stata proprio quest'ultima circostanza a determinare che la riuscita implementazione del punto di vista geometrico nella teoria della relatività generale (GTR) abbia stimolato la ricerca di una teoria fisica che, basata sulle proprietà metriche e topologiche dello spazio e del tempo reali , potrebbe ricreare (e quindi spiegare) il comportamento e le proprietà delle particelle elementari.

fenomeni quantistici. La maggior parte dei fisici risponderà senza dubbio con un sonoro “no”, perché credono che il problema quantistico debba essere risolto in un modo fondamentalmente diverso. Comunque sia, ci restano come consolazione le parole di Lessing: "Il desiderio di verità è più prezioso, più prezioso del suo fiducioso possesso".

In effetti, le difficoltà matematiche di per sé non possono servire come argomento contro la direzione nello sviluppo della fisica a cui aderì Einstein. Altri settori affrontano difficoltà simili, poiché (come notò Einstein) la fisica si sposta necessariamente da teorie lineari a teorie essenzialmente non lineari. Il problema principale è se un’immagine geometrizzata del mondo fisico possa spiegare la struttura atomica della materia e della radiazione, così come i fenomeni quantistici, e se possa, in linea di principio, essere una base sufficiente per un’adeguata riflessione dei fenomeni quantistici. Ci sembra che un'analisi storica, scientifica e filosofica delle potenzialità contenute negli approcci di Poincaré ed Einstein possa far luce su alcuni aspetti di questo problema.

È ampiamente nota la meravigliosa frase di P.S. Laplace secondo cui la mente umana incontra meno difficoltà quando va avanti rispetto a quando approfondisce se stessa. Ma andare avanti è in qualche modo connesso con l'approfondimento della mente in se stessa, con un cambiamento nei fondamenti, nello stile e nei metodi, con una revisione del valore e dello scopo della conoscenza scientifica, con il passaggio dal paradigma consueto a uno nuovo, più complesso e proprio per questo capace di ristabilire la perduta corrispondenza ragione e realtà.

Uno dei primi passi su questo percorso, come sappiamo, fu la giustificazione non empirica delle geometrie non euclidee data dal “Programma Erlangen” di F. Klein, che fu uno dei prerequisiti per liberare il pensiero fisico dalle catene della dimensione spaziale. immagine del mondo e comprendere la descrizione geometrica non come descrizione dell'arena dei processi fisici, ma come spiegazione adeguata della dinamica del mondo fisico. Questo ripensamento del ruolo della geometria nella cognizione fisica portò infine alla costruzione di un programma per la geometrizzazione della fisica. Tuttavia, la strada verso questo programma passò attraverso il convenzionalismo di Poincaré, che estese il metodo dei gruppi invarianti di Klein alla fisica.

Nel risolvere il problema del rapporto tra geometria e fisica, Poincaré si basò sul concetto del “Programma di Erlangen”, basato sull'idea della geometria come scienza astratta, che a sua volta

non riflette a sé le leggi del mondo esterno: “Le teorie matematiche non mirano a rivelarci la vera natura delle cose; una simile affermazione sarebbe sconsiderata. Il loro unico scopo è sistematizzare le leggi fisiche che apprendiamo dall’esperienza, ma che non potremmo nemmeno esprimere senza l’aiuto della matematica”.

Con questo approccio, la geometria sfugge chiaramente alla verifica sperimentale: “Se la geometria di Lobachevskij è valida, allora la parallasse di una stella molto distante sarà finita; se la geometria di Riemann è valida, allora sarà negativa. Questi risultati sembrano essere soggetti a verifica sperimentale; e si sperava che le osservazioni astronomiche potessero decidere la scelta tra le tre geometrie. Ma quella che in astronomia viene chiamata linea retta non è altro che la traiettoria di un raggio luminoso. Se, quindi, oltre ogni aspettativa, fosse possibile scoprire parallassi negative o dimostrare che tutte le parallassi sono maggiori di un limite noto, allora si presenterebbe una scelta tra due conclusioni: potremmo o abbandonare la geometria euclidea, o cambiare le leggi dell'ottica. e ammettere che la luce non viaggia esattamente in linea retta."

Poincaré interpreta la premessa iniziale della conoscenza fisica - la fisica studia i processi materiali nello spazio e nel tempo - non come una relazione di investimento (spazio e tempo, secondo Newton, sono contenitori di processi materiali), ma come una relazione tra due classi di concetti: geometrici , che non sono direttamente verificabili nell'esperienza , ed effettivamente fisici, logicamente dipendenti da quelli geometrici, ma confrontabili con i risultati degli esperimenti. Per Poincaré, l'unico oggetto della conoscenza fisica sono i processi materiali e lo spazio è interpretato come una varietà astratta, essendo oggetto di ricerca matematica. Proprio come la geometria stessa non studia il mondo esterno, così la fisica non studia lo spazio astratto. Ma senza una relazione con la geometria è impossibile comprendere i processi fisici. La geometria è un prerequisito della teoria fisica, indipendente dalle proprietà dell'oggetto descritto.

Nell'esperimento vengono testate insieme solo la geometria (G) e le leggi fisiche (F) e, quindi, è possibile una divisione arbitraria in (G) e (F) all'interno degli stessi fatti sperimentali. Da qui il convenzionalismo di Poincaré: il rapporto indefinito della geometria con l'esperienza porta alla negazione dello status ontologico sia della geometria che delle leggi fisiche e alla loro interpretazione come convenzioni condizionali.

Nel costruire la teoria della relatività speciale (STR), Einstein partì da un atteggiamento critico nei confronti del concetto classico di materia come sostanza. Questo approccio ha determinato l'interpretazione della costanza della velocità della luce come caratteristica attributiva del campo. Dal punto di vista di Einstein, il principio di costanza non lo è

la velocità della luce richiede una giustificazione meccanica e impone una revisione critica dei concetti della meccanica classica. Questa formulazione epistemologica del problema ha portato alla realizzazione dell'arbitrarietà delle ipotesi sullo spazio e sul tempo assoluti, su cui si basa la cinematica della meccanica classica. Ma se per Poincaré l'arbitrarietà di questi presupposti è ovvia, per Einstein è una conseguenza dei limiti dell'esperienza quotidiana su cui si basano questi presupposti. Per Einstein non ha senso parlare di spazio e tempo senza fare riferimento a quei processi fisici che soli danno loro un contenuto specifico. Pertanto, i processi fisici che non possono essere spiegati sulla base dei consueti concetti classici di spazio e tempo senza ulteriori ipotesi artificiali dovrebbero portare a una revisione di questi concetti.

Pertanto, l'esperienza è coinvolta nella risoluzione del problema di Poincaré: “Sono proprio quelle circostanze che in precedenza ci hanno causato dolorose difficoltà che ci portano sulla strada giusta dopo che otteniamo più libertà di azione abbandonando questi presupposti arbitrari. Si scopre che proprio quei due postulati, a prima vista incompatibili, che l'esperienza ci indica, vale a dire: il principio di relatività e il principio di costanza della velocità della luce, portano a una soluzione molto definita al problema delle trasformazioni delle coordinate E tempo." Di conseguenza, non la riduzione al familiare, ma un atteggiamento critico nei suoi confronti, ispirato dall'esperienza, è una condizione per la corretta soluzione di un problema fisico. Fu questo approccio che permise ad Einstein di dare alle trasformazioni di Lorentz un significato fisico adeguato, di cui né Lorentz né Poincaré si accorsero: il primo fu ostacolato dall'atteggiamento epistemologico del materialismo metafisico, basato su un atteggiamento acritico nei confronti della realtà fisica, il secondo - convenzionalismo, che unisce un atteggiamento critico verso le rappresentazioni spazio-temporali della meccanica classica con un atteggiamento acritico verso la sua concezione di materia.

"L'emancipazione del concetto di campo dal presupposto della sua connessione con un vettore meccanico si rifletteva nei processi psicologicamente più interessanti nello sviluppo del pensiero fisico", scrisse Einstein nel 1952, ricordando il processo di formazione dell'SRT. A partire dal lavoro di M. Faraday e J. C. Maxwell e finendo con il lavoro di Lorentz e Poincaré, l'obiettivo cosciente dei fisici era il desiderio di rafforzare le basi meccaniche della fisica, sebbene oggettivamente questo processo portasse alla formazione di un concetto indipendente di il campo.

Concetto riemanniano di geometria a metrica variabile. L'idea di Riemann della connessione tra metrica e cause fisiche conteneva la reale possibilità di costruire una teoria fisica che escludesse l'idea di spazio vuoto avente una data metrica e capace di influenzare i processi materiali senza essere soggetto all'effetto opposto.

Incarnando direttamente questa idea di Riemann nella teoria fisica, utilizzando la geometria riemanniana, che esclude il significato fisico delle coordinate, GTR fornisce precisamente un'interpretazione fisica della metrica riemanniana: “Secondo la teoria generale della relatività, le proprietà metriche dello spazio- tempo sono causalmente indipendenti da ciò che questo spazio-tempo è riempito, ma determinati da quest’ultimo”. Con questo approccio lo spazio come qualcosa di fisico con proprietà geometriche predeterminate viene completamente escluso dalla rappresentazione fisica della realtà. L’eliminazione del rapporto causale tra materia e spazio e tempo ha tolto allo “spazio e tempo l’ultimo residuo dell’oggettività fisica”. Ma questo non significava una negazione della loro oggettività: “Lo spazio e il tempo furono privati... non della loro realtà, ma della loro assolutezza causale (influente, ma non influenzabile)”. La relatività generale ha dimostrato l'oggettività dello spazio e del tempo, stabilendo una connessione inequivocabile tra le caratteristiche geometriche dello spazio e del tempo e le caratteristiche fisiche delle interazioni gravitazionali.

La costruzione della Relatività Generale si basa essenzialmente sulla posizione filosofica circa il primato della materia rispetto allo spazio e al tempo: “Secondo la meccanica classica e secondo la teoria speciale della relatività, lo spazio (spazio-tempo) esiste indipendentemente dalla materia ( cioè sostanza - R.A ., V.Sh.) o campi... D'altra parte, secondo la teoria generale della relatività, lo spazio non esiste separatamente, come qualcosa di opposto a "ciò che riempie lo spazio"... Spazio vuoto, cioè. lo spazio senza campo non esiste. Lo spazio-tempo non esiste di per sé, ma solo come proprietà strutturale del campo." Pertanto, la negazione dello spazio vuoto da parte di Einstein gioca un ruolo costruttivo, poiché è associata all’introduzione di una rappresentazione del campo nell’immagine fisica del mondo. Pertanto, Einstein sottolinea che il filone di pensiero che ha portato alla costruzione della relatività generale è “essenzialmente basato sul concetto di campo come concetto indipendente”. Questo approccio dell'autore di GR differisce non solo

Nel risolvere il problema del rapporto tra geometria e fisica nel quadro del convenzionalismo, occorre distinguere due aspetti. Da un lato, il linguaggio della geometria è necessario per la formulazione delle leggi fisiche. D'altra parte, la struttura geometrica non dipende dalle proprietà della realtà fisica. Per Poincaré non ha importanza quale sia la geometria utilizzata in fisica; l'unica cosa importante è che senza di essa è impossibile esprimere le leggi fisiche. Questa comprensione del ruolo della geometria in fisica porta alla negazione della sua funzione cognitiva, e questo è inaccettabile per Einstein. Per lui, la scelta della geometria nella costruzione di una teoria fisica è subordinata all'obiettivo più alto della fisica: la conoscenza del mondo materiale. Il passaggio dalla geometria euclidea alla geometria di Minkowski, e da quest’ultima alla geometria di Riemann nel passaggio dalla meccanica classica alla SRT, e poi alla GTR, è dovuto non solo e non tanto alla consapevolezza della stretta connessione della geometria utilizzata in fisica con il problema della realtà fisica. Dal punto di vista di Einstein, la geometria in fisica non determina solo la struttura della teoria fisica, ma è anche determinata dalla struttura della realtà fisica. Solo l’adempimento congiunto di queste due funzioni da parte della geometria fisica permette di evitare il convenzionalismo.

“A causa della selezione naturale”, scrive Poincaré, “la nostra mente si è adattata alle condizioni del mondo esterno, ha adottato la geometria più vantaggiosa per la specie, o, in altre parole, la più conveniente... La geometria non è vera; , ma solo benefico”. La mente umana, infatti, si è adattata alle condizioni del mondo esterno, includendo le proprietà metriche dello spazio e del tempo reali nella corrispondente regione del mondo esterno, e quindi ha acquisito la geometria che si è rivelata adeguata alla realtà e unica di conseguenza più conveniente. La geometria come elemento teorico è un'altra questione. Potrebbe riflettere le proprietà metriche dello spazio e del tempo reali, oppure potrebbe non rifletterle, ma essere la geometria di uno spazio astratto, con l'aiuto del quale le proprietà delle interazioni materiali vengono ricreate in teoria. Nel primo caso si decide sulla sua verità o falsità, nel secondo sulla sua redditività. L'assolutizzazione della seconda soluzione, la riduzione ad essa del problema del rapporto tra geometria e realtà è una conseguenza dell'illecita identificazione tra spazio astratto e spazio e tempo reali (una delle manifestazioni di quella che poi divenne nota come sindrome pitagorica - identificazione

alcuni elementi dell'apparato matematico della teoria con i corrispondenti elementi della realtà che esistono prima, al di fuori e indipendentemente da ogni teoria).

In sostanza, questo è esattamente ciò di cui scrive Einstein nel suo articolo “Geometria ed esperienza”, notando che l'approccio di Poincaré al problema del rapporto tra geometria e fisica procede dal fatto che “la geometria (G) non dice nulla sul comportamento delle cose reali ”, in esso “la connessione diretta tra geometria e realtà fisica viene distrutta”. Tutti gli altri giudizi sono che “questo comportamento è descritto solo dalla geometria insieme all’insieme delle leggi fisiche (F)... che solo la somma (G) + (F) è soggetta a verifica sperimentale”, che “si può scegliere arbitrariamente come (G ), e le singole parti (F)” – come è facile intuire, seguono da queste premesse iniziali. Tuttavia, entrambi sono falsi. La geometria dello spazio reale “parla” del comportamento delle cose reali; le proprietà metriche dello spazio e del tempo e le proprietà delle corrispondenti interazioni materiali sono correlate tra loro nella realtà oggettiva. Nella teoria fisica, dalle proprietà metriche dello spazio e del tempo di una certa regione spazio-temporale della realtà oggettiva, si giudicano le proprietà corrispondenti delle interazioni materiali dominanti in quest'area, dalla geometria si giudica la fisica da (G) si giudica (; F).

Tuttavia, il processo di ricreare le proprietà delle interazioni materiali utilizzando le corrispondenti proprietà metriche di spazio e tempo non è una procedura sperimentale, ma puramente teorica. In quanto procedura puramente teorica, non è, in linea di principio, diversa dal processo di ricreare in teoria le stesse proprietà delle interazioni materiali utilizzando le proprietà metriche non dello spazio e del tempo reali, ma di spazi astratti opportunamente organizzati. Da qui, da un lato, a) l'illusione che solo la somma di (G) e (F) sia oggetto di verifica sperimentale, che il teorico possa scegliere arbitrariamente la geometria come sfondo per lo studio delle interazioni materiali; d'altra parte, b) la grana razionale del concetto di rapporto tra geometria e fisica di Poincaré: le geometrie come componenti della teoria, con l'aiuto delle quali il teorico ricrea le proprietà delle interazioni materiali, possono infatti essere diverse, e in in questo senso la teoria contiene un elemento di convenzionalità.

Scegliamo arbitrariamente una geometria in teoria, la scegliamo sempre in modo tale che, con l'aiuto della geometria corrispondente (G), possiamo ricreare nella teoria le proprietà delle interazioni reali (F). In secondo luogo, perché la questione di quale delle geometrie, con l'aiuto delle quali vengono ricreate nella teoria le proprietà delle interazioni materiali, rappresenti adeguatamente le proprietà metriche dello spazio e del tempo reali in esso, non può essere risolta all'interno della teoria; va oltre la teoria nel regno dell'esperimento. E questo è il punto.

Il ricorso all'idea di “straordinaria semplicità”, a un esame più attento, risulta essere un argomento molto complesso. Già Einstein, criticando il principio di semplicità di Poincaré, con cui giustificava la scelta della geometria euclidea nella costruzione di una teoria fisica, notava che “ciò che è importante non è che solo la geometria sia strutturata nel modo più semplice, ma che tutta la fisica sia strutturata in modo il modo più semplice (compresa la geometria)".

L'articolo di Ya.B.Zeldovich e L.P.Grischuk “Gravità, relatività generale e teorie alternative” sottolinea che il motivo principale che ha portato Logunov a negare l'approccio di Einstein al problema del rapporto tra geometria e fisica - indipendentemente dalle intenzioni soggettive del Autore di RTG, - di natura non tanto fisica quanto psicologica. In effetti, la base dell’approccio critico dell’autore di RTG alla relatività generale è il desiderio di rimanere nell’ambito del familiare (e quindi semplice)

stile di pensiero. Ma la stretta connessione tra il familiare e il semplice, la giustificazione della semplicità da parte del familiare è l'ideale dello stile di pensiero psicologico.

L'evoluzione della fisica dimostra in modo convincente che ciò che è familiare e semplice per una generazione di fisici può essere incomprensibile e complesso per un'altra generazione. L’ipotesi dell’etere meccanico ne è un ottimo esempio. Il rifiuto del familiare e del semplice è un inevitabile concomitante dell'espansione dell'esperienza, della padronanza di nuove aree della natura e della conoscenza. Ogni grande progresso scientifico è stato accompagnato dalla perdita di ciò che è familiare e semplice, e quindi da un cambiamento nell'idea stessa di esso. In breve, il familiare e il semplice sono categorie storiche. Pertanto, non la riduzione al familiare, ma il desiderio di comprendere la realtà è lo scopo più alto della scienza: “Il nostro obiettivo costante è una comprensione sempre migliore della realtà... Quanto più semplici e fondamentali diventano le nostre ipotesi, tanto più complesse sono le questioni matematiche. strumento del nostro ragionamento; il percorso dalla teoria all'osservazione diventa più lungo, sottile e complesso. Anche se sembra paradossale, possiamo dire: la fisica moderna è più semplice della vecchia fisica, e quindi sembra più difficile e confusa."

Lo svantaggio principale dello stile di pensiero psicologico è associato all'ignoranza dell'aspetto epistemologico dei problemi scientifici, nell'ambito del quale è possibile solo un atteggiamento critico nei confronti delle abitudini intellettuali, che esclude una chiara separazione dell'origine e dell'essenza delle idee scientifiche. In effetti, la meccanica classica precede la meccanica quantistica e STR, e quest’ultima precede l’emergere di GTR. Ma ciò non significa che le teorie precedenti siano superiori a quelle successive in chiarezza e chiarezza, come si presume nel quadro dello stile di pensiero psicologico. Da un punto di vista epistemologico, STR e la meccanica quantistica sono più semplici e comprensibili della meccanica classica, e GR è più semplice e comprensibile di SRT. Ecco perché “nei seminari scientifici... una posizione poco chiara in qualche questione classica viene improvvisamente illustrata da qualcuno che utilizza un noto esempio quantistico, e la questione diventa completamente “trasparente”.

Ecco perché i “selvaggi della geometria riemanniana” ci avvicinano a un’adeguata comprensione della realtà fisica, mentre lo “spazio di Minkowski sorprendentemente semplice” ci allontana da essa. Einstein e Hilbert “entrarono” in queste “selvaggine” e vi “trascinarono” le “successive generazioni di fisici” proprio perché erano interessati non solo e non tanto a quanto fossero semplici o complessi

proprietà metriche dello spazio astratto, con l'aiuto delle quali lo spazio e il tempo reali possono essere descritti teoricamente, così come quali sono le proprietà metriche di questi ultimi. In definitiva, questo è proprio il motivo per cui Logunov è costretto a ricorrere allo spazio “effettivo” della geometria riemanniana per descrivere gli effetti gravitazionali oltre allo spazio di Minkowski utilizzato in RTG, poiché solo il primo di questi due spazi rappresenta adeguatamente quelli reali in RTG (come così come nella relatività generale).

Gli errori epistemologici dell'RTG con un approccio filosofico sono facilmente rilevabili. Logunov scrive che “anche avendo scoperto sperimentalmente la geometria riemanniana, non bisogna affrettarsi a trarre una conclusione sulla struttura della geometria, che deve essere usata come base della teoria”. Questo ragionamento è simile al ragionamento di Poincaré: proprio come il fondatore del convenzionalismo insisteva nel preservare la geometria euclidea indipendentemente dai risultati degli esperimenti, così l'autore di RTG insiste nel preservare la geometria di Minkowski come base di qualsiasi teoria fisica. La base di questo approccio è in definitiva la sindrome pitagorica, l'ontologizzazione dello spazio astratto di Minkowski.

Non si tratta più del fatto che l'esistenza dello spazio-tempo come contenitore di eventi, che ha una strana capacità di provocare effetti inerziali nella materia senza subire l'effetto opposto, diventa un postulato inevitabile. Un tale concetto nella sua artificiosità supera anche l'ipotesi di un etere meccanico, su cui abbiamo già attirato l'attenzione sopra, confrontando la meccanica classica e SRT. In linea di principio, contraddice la GTR, poiché “uno dei risultati della teoria della relatività generale, che, per quanto ne sappiamo, è sfuggito all’attenzione dei fisici”, è che “il concetto separato di spazio... diventa ridondante . In questa teoria, lo spazio non è altro che un campo quadridimensionale e non qualcosa che esiste in sé”. Descrivere la gravità dalla geometria di Minkowski e allo stesso tempo usare la geometria riemanniana per Einstein significa mostrare incoerenza: “Rimanere con un gruppo più ristretto e allo stesso tempo assumere una struttura di campo più complessa (la stessa della teoria generale della relatività ) significa ingenua incoerenza. Un peccato rimane un peccato, anche se è commesso da uomini altrimenti rispettabili”.

La relatività generale, in cui le proprietà delle interazioni gravitazionali sono ricreate utilizzando le proprietà metriche dello spazio-tempo curvo di Riemann, è esente da queste incoerenze epistemologiche: “Bellissimo

l'eleganza della teoria generale della relatività... deriva direttamente dall'interpretazione geometrica. Grazie alla giustificazione geometrica, la teoria ha ricevuto una forma definita e indistruttibile... L'esperienza lo conferma o lo smentisce... Interpretando la gravità come l'azione dei campi di forza sulla materia, determinano solo un quadro di riferimento molto generale, e non un teoria unica. È possibile costruire molte equazioni variazionali generalmente covarianti e... solo l'osservazione può rimuovere assurdità come la teoria della gravità basata su un campo vettoriale e scalare o su due campi tensoriali. Al contrario, nel quadro dell'interpretazione geometrica di Einstein, tali teorie si rivelano fin dall'inizio assurde. Essi vengono eliminati dagli argomenti filosofici su cui si basa questa interpretazione." La fiducia psicologica nella verità di GTR non si basa sulla nostalgia per il solito stile di pensiero, ma sul suo monismo, integrità, isolamento, coerenza logica e assenza di errori epistemologici caratteristici di RTG.

Uno dei principali errori epistemologici di RTG è, nella nostra profonda convinzione, la sua posizione epistemologica iniziale, secondo la quale i criteri intra-teorici sono sufficienti per risolvere la questione di quale degli spazi astratti della teoria rappresenti adeguatamente lo spazio e il tempo reali in essa. . Questo atteggiamento epistemologico, incompatibile con quello che sta alla base di GTR, con la mano leggera di Heisenberg, è attribuito... a Einstein, che, in una conversazione con lui nella primavera del 1926 a Berlino, lo formulò in una forma ancora più generale come affermazione che non è l'esperimento, ma la teoria a determinare ciò che è osservabile.

Nel frattempo, per quanto paradossale possa sembrare a prima vista, contrariamente all'opinione prevalente nella comunità scientifica (compresa l'opinione dello stesso Heisenberg), Einstein in realtà non gli parlò di questo, ma di qualcosa di completamente diverso. Riproduciamo il passaggio corrispondente del rapporto “Incontri e conversazioni con Albert Einstein” (fatto da Heisenberg il 27 luglio 1974 a Ulm), in cui Heisenberg ricorda questa conversazione con Einstein, durante la quale si oppose al principio di osservabilità formulato da Heisenberg: “Ogni osservazione, sosteneva, presuppone una connessione inequivocabilmente fissa tra il fenomeno che stiamo considerando e la sensazione sensoriale che sorge nella nostra coscienza. Tuttavia, possiamo parlare con sicurezza di questa connessione solo se conosciamo le leggi della natura con cui è determinata. Se - che è chiaramente il caso dell'atomica moderna

fisica: le leggi stesse vengono messe in discussione, quindi anche il concetto di "osservazione" perde il suo significato chiaro. In una situazione del genere, la teoria deve prima determinare ciò che è osservabile."

L'impostazione epistemologica iniziale di RTG Logunov è una conseguenza di un paralogismo relativamente semplice: l'identificazione della condizione necessaria per l'adeguatezza delle strutture teoriche della realtà oggettiva con la sua condizione sufficiente. Come è facile capire, questo spiega in definitiva gli errori logici ed epistemologici che sono alla base di RTG e della sua opposizione a GTR - l'uso di soli criteri intrateorici nel decidere quale degli spazi astratti della teoria rappresenta adeguatamente lo spazio e il tempo reali in esso, e il suo l'illecita identificazione con essi sono essenzialmente gli stessi errori logici ed epistemologici che stanno alla base dell'approccio di Poincaré al problema del rapporto tra geometria e fisica.

Qualunque cosa si possa dire sull’approccio di Einstein al problema del rapporto tra geometria e fisica, la nostra analisi indica che la questione delle possibilità di questo approccio nella formazione di un moderno paradigma delle scienze naturali rimane aperta. Resta aperto fino a prova contraria

l'esistenza di proprietà dei fenomeni materiali che non sono in alcun modo collegate alle proprietà dello spazio e del tempo. E al contrario, le prospettive favorevoli dell’approccio di Einstein sono in definitiva dovute al fatto che viene sempre più scoperta la connessione tra le proprietà metriche e topologiche dello spazio e del tempo con varie proprietà non spaziotemporali dei fenomeni materiali. Allo stesso tempo, un’analisi storica, scientifica e filosofica dell’approccio di Poincaré al problema del rapporto tra geometria e fisica porta alla conclusione che esso è inutile come alternativa all’approccio di Einstein. Ciò è evidenziato anche dall'analisi dei tentativi di rilanciarlo, intrapresi nelle opere di Logunov e dei suoi colleghi.

Appunti


Aronov R.A. Sul problema dello spazio e del tempo nella fisica delle particelle elementari // Problemi filosofici della fisica delle particelle elementari. M., 1963. P. 167; Lui è lo stesso. Il problema della struttura spazio-temporale del micromondo // Questioni filosofiche della fisica quantistica. M., 1970. P. 226; Lui è lo stesso. Sulla questione della logica del micromondo // Vopr. filosofia. 1970. N. 2. P. 123; Lui è lo stesso. Relatività generale e fisica del micromondo // Teoria classica e quantistica della gravità. Mn., 1976. P. 55; Aronov R.A. Ai fondamenti filosofici del programma di superunificazione // Logica, metodologia e filosofia della scienza. Mosca, 1983. P. 91.

Cm.: Aronov R.A. Sul problema del rapporto tra spazio, tempo e materia // Vopr. filosofia. 1978. N. 9. P. 175; È lui. Sul metodo della geometrizzazione in fisica. Opportunità e confini // Metodi della conoscenza scientifica e fisica. M., 1985. P. 341; Aronov R.A., Knyazev V.N.. Sul problema del rapporto tra geometria e fisica // Materialismo dialettico e questioni filosofiche delle scienze naturali. M., 1988, pag. 3.

Cm.: Aronov R.A. Riflessioni sulla fisica // Domande sulla storia delle scienze naturali e della tecnologia. 1983. N. 2. P. 176; È lui. Due approcci per valutare le visioni filosofiche di A. Poincaré // Materialismo dialettico e questioni filosofiche delle scienze naturali. M., 1985. S. 3; Aronov R.A., Shemyakinsky V.M. Giustificazione filosofica del programma di geometrizzazione della fisica // Materialismo dialettico e questioni filosofiche delle scienze naturali. M., 1983. S. 3; Sono. Sui fondamenti della geometrizzazione della fisica // Problemi filosofici delle scienze naturali moderne. Kiev, 1986. V. 61. P. 25.

Heisenberg V. Sviluppo di concetti nella fisica del ventesimo secolo // Vopr. filosofia. 1975. N. 1. P. 87.

Di seguito è riportato un elenco problemi irrisolti della fisica moderna. Alcuni di questi problemi sono teorici. Ciò significa che le teorie esistenti non sono in grado di spiegare alcuni fenomeni osservati o risultati sperimentali. Altri problemi sono sperimentali, nel senso che ci sono difficoltà nel creare un esperimento per testare una teoria proposta o studiare un fenomeno in modo più dettagliato. I seguenti problemi sono problemi teorici fondamentali o idee teoriche per le quali non esiste prova sperimentale. Alcuni di questi problemi sono strettamente correlati. Ad esempio, dimensioni extra o supersimmetria possono risolvere il problema della gerarchia. Si ritiene che la teoria completa della gravità quantistica sia in grado di rispondere alla maggior parte delle domande elencate (ad eccezione del problema dell'isola di stabilità).

  • 1. Gravità quantistica.È possibile combinare la meccanica quantistica e la relatività generale in un’unica teoria autoconsistente (forse la teoria quantistica dei campi)? Lo spaziotempo è continuo o discreto? La teoria autoconsistente utilizzerà un ipotetico gravitone o sarà interamente un prodotto della struttura discreta dello spaziotempo (come nella gravità quantistica a loop)? Ci sono deviazioni dalle previsioni della relatività generale per scale molto piccole o molto grandi o altre circostanze estreme che derivano dalla teoria della gravità quantistica?
  • 2. Buchi neri, scomparsa dell'informazione in un buco nero, radiazione di Hawking. I buchi neri producono radiazione termica come prevede la teoria? Questa radiazione contiene informazioni sulla loro struttura interna, come suggerito dalla dualità dell'invarianza del misuratore di gravità, oppure no, come implicato dal calcolo originale di Hawking? In caso contrario, e i buchi neri possono evaporare continuamente, cosa succede alle informazioni in essi archiviate (la meccanica quantistica non prevede la distruzione delle informazioni)? Oppure la radiazione si fermerà ad un certo punto quando rimarrà ben poco del buco nero? Esiste un altro modo per studiare la loro struttura interna, ammesso che esista? La legge di conservazione della carica barionica è vera all'interno di un buco nero? La prova del principio della censura cosmica, così come l'esatta formulazione delle condizioni in cui viene adempiuto, sono sconosciute. Non esiste una teoria completa e completa della magnetosfera dei buchi neri. La formula esatta per calcolare il numero dei diversi stati di un sistema, il cui collasso porta alla nascita di un buco nero con una determinata massa, momento angolare e carica, è sconosciuta. Non esiste alcuna prova nota nel caso generale del “teorema senza capelli” per un buco nero.
  • 3. Dimensione dello spazio-tempo. Esistono in natura ulteriori dimensioni dello spazio-tempo oltre alle quattro che conosciamo? Se sì, qual è il loro numero? La dimensione “3+1” (o superiore) è una proprietà a priori dell'Universo o è il risultato di altri processi fisici, come suggerisce, ad esempio, la teoria della triangolazione dinamica causale? Possiamo “osservare” sperimentalmente dimensioni spaziali superiori? È vero il principio olografico secondo cui la fisica del nostro spazio-tempo dimensionale “3+1” è equivalente alla fisica su un’ipersuperficie con dimensione “2+1”?
  • 4. Modello inflazionistico dell'Universo. La teoria dell’inflazione cosmica è vera e, in caso affermativo, quali sono i dettagli di questa fase? Qual è l’ipotetico campo inflazionistico responsabile dell’aumento dell’inflazione? Se l’inflazione si è verificata ad un certo punto, è questo l’inizio di un processo autosufficiente dovuto all’inflazione delle oscillazioni quantomeccaniche, che continuerà in un luogo completamente diverso, lontano da questo punto?
  • 5. Multiverso. Esistono ragioni fisiche per l'esistenza di altri universi che sono fondamentalmente inosservabili? Ad esempio: esistono “storie alternative” o “molti mondi” della meccanica quantistica? Esistono “altri” universi con leggi fisiche che risultano da modi alternativi di rompere l’apparente simmetria delle forze fisiche ad alte energie, situati forse incredibilmente lontani a causa dell’inflazione cosmica? Altri universi potrebbero influenzare il nostro, causando, ad esempio, anomalie nella distribuzione della temperatura della radiazione cosmica di fondo a microonde? È giustificato utilizzare il principio antropico per risolvere i dilemmi cosmologici globali?
  • 6. Il principio di censura cosmica e l'ipotesi di tutela della cronologia. Possono le singolarità non nascoste dietro l'orizzonte degli eventi, note come "singolarità nude", sorgere da condizioni iniziali realistiche, o può essere dimostrata qualche versione dell'"ipotesi della censura cosmica" di Roger Penrose che suggerisca che ciò sia impossibile? Recentemente sono emersi fatti a favore dell'incoerenza dell'ipotesi della censura cosmica, il che significa che le singolarità nude dovrebbero verificarsi molto più spesso delle semplici soluzioni estreme delle equazioni di Kerr-Newman, tuttavia, prove conclusive di ciò non sono state ancora presentate. Allo stesso modo, ci saranno curve di tipo tempo chiuse che sorgono in alcune soluzioni delle equazioni della relatività generale (e che implicano la possibilità di viaggi all'indietro nel tempo) escluse dalla teoria della gravità quantistica, che unifica la relatività generale con la meccanica quantistica, come suggerito da Stephen's "congettura di protezione della cronologia" Hawking?
  • 7. Asse temporale. Cosa possono dirci sulla natura del tempo i fenomeni che differiscono tra loro perché si muovono avanti e indietro nel tempo? In che modo il tempo è diverso dallo spazio? Perché le violazioni di CP vengono osservate solo in alcune interazioni deboli e in nessun altro luogo? Le violazioni dell'invarianza CP sono una conseguenza della seconda legge della termodinamica o sono un asse del tempo separato? Esistono eccezioni al principio di causalità? Il passato è l’unico possibile? Il momento presente è fisicamente diverso dal passato e dal futuro o è semplicemente il risultato delle caratteristiche della coscienza? In che modo gli esseri umani hanno imparato a negoziare qual è il momento presente? (Vedi anche sotto Entropia (asse del tempo)).
  • 8. Località. Esistono fenomeni non locali nella fisica quantistica? Se esistono, hanno limitazioni nel trasferimento delle informazioni, oppure: energia e materia possono muoversi anche lungo un percorso non locale? In quali condizioni si osservano i fenomeni nonlocali? Cosa comporta la presenza o l'assenza di fenomeni nonlocali per la struttura fondamentale dello spazio-tempo? Come si collega questo all’entanglement quantistico? Come può essere interpretato questo dal punto di vista di una corretta interpretazione della natura fondamentale della fisica quantistica?
  • 9. Il futuro dell'Universo. L'Universo si sta dirigendo verso un Big Freeze, un Big Rip, un Big Crunch o un Big Bounce? Il nostro Universo fa parte di uno schema ciclico che si ripete all’infinito?
  • 10. Il problema della gerarchia. Perché la gravità è una forza così debole? Diventa grande solo sulla scala di Planck, per particelle con energie dell'ordine di 10 19 GeV, che è molto più alta della scala elettrodebole (nella fisica delle basse energie l'energia dominante è 100 GeV). Perché queste scale sono così diverse l’una dall’altra? Cosa impedisce alle quantità su scala elettrodebole, come la massa del bosone di Higgs, di ricevere correzioni quantistiche su scale dell'ordine di Planck? La supersimmetria, le dimensioni extra o semplicemente la messa a punto antropica sono la soluzione a questo problema?
  • 11. Monopolo magnetico. Le particelle - portatrici di "carica magnetica" - esistevano in epoche passate con energie più elevate? Se sì, ce ne sono disponibili oggi? (Paul Dirac ha dimostrato che la presenza di certi tipi di monopoli magnetici potrebbe spiegare la quantizzazione della carica.)
  • 12. Decadimento del protone e Grande Unificazione. Come possiamo unificare le tre diverse interazioni fondamentali della meccanica quantistica della teoria quantistica dei campi? Perché il barione più leggero, che è un protone, è assolutamente stabile? Se il protone è instabile, qual è il suo tempo di dimezzamento?
  • 13. Supersimmetria. La supersimmetria dello spazio è realizzata in natura? Se sì, qual è il meccanismo per rompere la supersimmetria? La supersimmetria stabilizza la scala elettrodebole, prevenendo correzioni quantistiche elevate? La materia oscura è costituita da particelle leggere supersimmetriche?
  • 14. Generazioni di materia. Esistono più di tre generazioni di quark e leptoni? Il numero di generazioni è legato alla dimensione dello spazio? Perché esistono le generazioni? Esiste una teoria che potrebbe spiegare la presenza di massa in alcuni quark e leptoni nelle singole generazioni basandosi su principi primi (teoria dell'interazione di Yukawa)?
  • 15. Simmetria fondamentale e neutrini. Qual è la natura dei neutrini, qual è la loro massa e come hanno modellato l'evoluzione dell'Universo? Perché ora nell’Universo si scopre più materia che antimateria? Quali forze invisibili erano presenti agli albori dell'Universo, ma sono scomparse alla vista man mano che l'Universo si è evoluto?
  • 16. Teoria quantistica dei campi. I principi della teoria relativistica dei campi quantistici locali sono compatibili con l’esistenza di una matrice di scattering non banale?
  • 17. Particelle senza massa. Perché in natura non esistono particelle prive di massa e senza spin?
  • 18. Cromodinamica quantistica. Quali sono gli stati di fase della materia fortemente interagente e che ruolo svolgono nello spazio? Qual è la struttura interna dei nucleoni? Quali proprietà della materia fortemente interagente prevede la QCD? Cosa controlla la transizione di quark e gluoni in mesoni pi e nucleoni? Qual è il ruolo dei gluoni e dell'interazione dei gluoni nei nucleoni e nei nuclei? Cosa definisce le caratteristiche chiave della QCD e qual è la loro relazione con la natura della gravità e dello spaziotempo?
  • 19. Nucleo atomico e astrofisica nucleare. Qual è la natura delle forze nucleari che legano protoni e neutroni in nuclei stabili e isotopi rari? Qual è la ragione per cui le particelle semplici si combinano in nuclei complessi? Qual è la natura delle stelle di neutroni e della materia nucleare densa? Qual è l'origine degli elementi nello spazio? Quali sono le reazioni nucleari che muovono le stelle e le fanno esplodere?
  • 20. Isola di stabilità. Qual è il nucleo stabile o metastabile più pesante che possa esistere?
  • 21. La meccanica quantistica e il principio di corrispondenza (a volte chiamato caos quantistico). Esistono interpretazioni preferenziali della meccanica quantistica? In che modo la descrizione quantistica della realtà, che include elementi come la sovrapposizione quantistica di stati e il collasso della funzione d'onda o la decoerenza quantistica, porta alla realtà che vediamo? La stessa cosa può essere formulata utilizzando il problema della misurazione: qual è la “misura” che fa collassare la funzione d’onda in un certo stato?
  • 22. Informazioni fisiche. Esistono fenomeni fisici, come i buchi neri o il collasso della funzione d'onda, che distruggono permanentemente le informazioni sui loro stati precedenti?
  • 23. La teoria del tutto (“Teorie della Grande Unificazione”). Esiste una teoria che spieghi i valori di tutte le costanti fisiche fondamentali? Esiste una teoria che spieghi perché l’invarianza di Gauge del modello standard è così com’è, perché lo spaziotempo osservabile ha 3+1 dimensioni e perché le leggi della fisica sono così come sono? Le “costanti fisiche fondamentali” cambiano nel tempo? Alcune delle particelle del modello standard della fisica delle particelle sono effettivamente costituite da altre particelle legate insieme così strettamente da non poter essere osservate alle attuali energie sperimentali? Esistono particelle fondamentali che non sono ancora state osservate e, se sì, cosa sono e quali sono le loro proprietà? Ci sono forze fondamentali non osservabili suggerite dalla teoria che spiegano altri problemi irrisolti in fisica?
  • 24. Invarianza di calibro. Esistono davvero teorie di Gauge non abeliane con una lacuna nello spettro di massa?
  • 25. Simmetria CP. Perché la simmetria CP non viene preservata? Perché viene preservato nella maggior parte dei processi osservati?
  • 26. Fisica dei semiconduttori. La teoria quantistica dei semiconduttori non può calcolare con precisione una singola costante di un semiconduttore.
  • 27. La fisica quantistica. La soluzione esatta dell'equazione di Schrödinger per gli atomi multielettronici è sconosciuta.
  • 28. Quando si risolve il problema della dispersione di due raggi su un ostacolo, la sezione trasversale di diffusione risulta essere infinitamente grande.
  • 29. Feynmanio: cosa accadrà a un elemento chimico il cui numero atomico è superiore a 137, per cui l'elettrone 1s 1 dovrà muoversi a una velocità superiore alla velocità della luce (secondo il modello dell'atomo di Bohr) ? Il Feynmanio è l'ultimo elemento chimico capace di esistere fisicamente? Il problema potrebbe apparire intorno all'elemento 137, dove l'espansione della distribuzione della carica nucleare raggiunge il suo punto finale. Vedi l'articolo Tavola periodica estesa degli elementi e la sezione Effetti relativistici.
  • 30. Fisica statistica. Non esiste una teoria sistematica dei processi irreversibili che consenta di effettuare calcoli quantitativi per ogni dato processo fisico.
  • 31. Elettrodinamica quantistica. Esistono effetti gravitazionali causati dalle oscillazioni del punto zero del campo elettromagnetico? Non è noto come soddisfare contemporaneamente le condizioni di finitezza del risultato, invarianza relativistica e somma di tutte le probabilità alternative pari all'unità nel calcolo dell'elettrodinamica quantistica nella regione ad alta frequenza.
  • 32. Biofisica. Non esiste una teoria quantitativa per la cinetica del rilassamento conformazionale delle macromolecole proteiche e dei loro complessi. Non esiste una teoria completa del trasferimento di elettroni nelle strutture biologiche.
  • 33. Superconduttività.È impossibile prevedere teoricamente, conoscendo la struttura e la composizione di una sostanza, se entrerà in uno stato superconduttore con una temperatura decrescente.

Ministero dell'Istruzione e della Scienza della Federazione Russa Agenzia Federale per l'Istruzione Yaroslavskij stato Università loro.<...>S.P. Zimin© Yaroslavskij stato Università, 2007 2 Indice SULLA QUESTIONE DELLA VALUTAZIONE DELLA QUALITÀ RESTAURATO IMMAGINI 7 <...>T.K. Artyomova, A.S. Gvozdarev, E.A. Kuznetsov.................................... 14 SULL'INFLUENZA DELLA CARICA ELETTRICA SULLE CONDIZIONI DI SVILUPPO DI CONVEZIONE TERMICA IN LIQUIDO STRATO CON SUPERFICIE LIBERA<...>AA. Abdulloev, E.Yu. Sautov∗ Abstract Viene considerata la questione della valutazione della qualità restaurato immagini. <...>Al momento, la misura oggettiva più popolare è picco atteggiamento segnale-rumore (SNR).<...>P.G. Demidova MODELLARE UN OGGETTO VICINO RADIOLOGIA SECONDO IL SUO DIAGRAMMA DI DIFFUSIONE BISTATICA<...>T.K. Artyomova, A.S. Gvozdarev, E.A. Kuznetsov Abstract È stata studiata la possibilità di identificare un oggetto dal campo da esso disperso compiti vicino olografia radiofonica. <...>dove (ψ~hs ) sono i nuovi coefficienti di espansione, ahs lo sono tensore dispersione, e le funzioni di base (H hs ) sono scelte in modo che il campo risultante soddisfi la condizione di radiazione di Sommerfeld: 16 lim<...>Tenendo conto che il cilindro è considerato perfettamente conduttivo, tensore dispersione può essere rappresentata come una matrice diagonale:  a ρ Ar 0 0   hs<...>P.G. Demidova SULL'INFLUENZA DELLA CARICA ELETTRICA SULLE CONDIZIONI DI SVILUPPO DELLA CONVEZIONE TERMICA IN LIQUIDO STRATO CON SUPERFICIE LIBERA<...>Introduzione La questione della determinazione delle condizioni per lo sviluppo della convezione termica in a liquido stratoè stato più volte studiato in varie formulazioni, comprese quelle che tengono conto della possibilità di sviluppare deformazioni della forma della superficie libera del liquido.<...>movimento in un liquido con un campo di velocità U (x, t) e distorsione ondulatoria del rilievo della superficie libera del liquido ξ (x, t), e hanno lo stesso ordine un po', come ξ , vale a dire: T ~ ρ ~ ​​​​p ~ U ~ ξ ~ kT γ .<...>E = − grad (Φ 0 (z) + Φ(x, z, t)), dove la piccola correzione Φ(x, z, t) associata alla deformazione ondulatoria della superficie libera<...>

Problemi_attuali_di_fisica._Numero_6_Raccolta_di_opere_scientifiche_di_giovani_scienziati,_studenti_laureati_e_studenti.pdf

Ministero dell'Istruzione e della Scienza della Federazione Russa Agenzia Federale per l'Istruzione Università statale di Yaroslavl da cui prende il nome. P.G. Demidova Problemi attuali di fisica Raccolta di lavori scientifici di giovani scienziati, dottorandi e studenti Numero 6 Yaroslavl 2007 1

Pagina 1

UDC 53 BBK V3ya43 A 44 Consigliata dal Consiglio Editoriale ed Editoriale dell'Università come pubblicazione scientifica. Piano per il 2005 Problemi attuali in fisica: sab. scientifico tr. giovani scienziati, dottorandi e studenti. Numero 6/Rap. per numero Dottore in Fisica e Matematica Scienze S.P. Zimin; Yarosl. stato univ. – Yaroslavl: YarSU, 2007. –262 p. La raccolta presenta articoli su vari settori della fisica, scritti da giovani scienziati, dottorandi e studenti della Facoltà di Fisica dell'Università statale di Yaroslavl. P.G. Demidova. UDC 53 BBK V3ya43 Responsabile del rilascio è il Dottore in Scienze Fisiche e Matematiche S.P. Zimin © Università statale di Yaroslavl, 2007 2

Pagina 2

Indice SULLA QUESTIONE DELLA VALUTAZIONE DELLA QUALITÀ DELLE IMMAGINI RESTAURATE 7 A.A. Abdulloev, E.Yu. Sautov............................................... ....... ............... 7 MODELLAZIONE DI UN OGGETTO IN RADIOLOGIA VICINA SECONDO IL SUO DIAGRAMMA DI DIFFUSIONE BISTATICA T.K. Artyomova, A.S. Gvozdarev, E.A. Kuznetsov.................................... 14 SULL'INFLUENZA DELLA CARICA ELETTRICA SULLE CONDIZIONI PER LO SVILUPPO DI CONVEZIONE TERMICA IN UNO STRATO LIQUIDO A SUPERFICIE LIBERA D.F. Belonozhko, A.V. Kozin.................................................. . .............. 22 RICERCA DELLE PROPRIETÀ DI DIFFUSIONE DI UN RIFLETTORE A CONTROLLO PASSIVO PER PROBLEMI RADIOLOGICI DI IMMAGINI FOCUS M.A. Bokov, A.S. Leontiev.................................................... ........ ................. 31 OSCILLAZIONI NON LINEARI NON ASSI-SIMMETRICHE DI UN GETTO CARICO DI LIQUIDO DIELETTRICO N.V. Voronina................................................ ......... ............................ 39 APPLICAZIONE DELL'APPARECCHIO DELLE CATENE DI MARKOV PER LO STUDIO DEL SISTEMA DI SINCRONIZZAZIONE CICLICA NEI SISTEMI OFDM I.A. V.A. Chvalo................................................ .................................... 48 INSTALLAZIONE DEL MICROCONTROLLORE PER OTTENERE ODOGRAMMI DELLA TENSIONE DI USCITA DI UN CONVERTITORE DI CORRENTE EDY A.E. Gladun.................................................. ...................................................... .... 59 CALCOLO DI UN LABORATORIO CONTROLLATO DA COMPUTER MAGNET S.A. Golyzina.................................................... ...................................................... 65 CARATTERISTICHE DEL MICRORILIEVO DI FILM EPITAXIALI DI PbSe DOPO TRATTAMENTO IN PLASMA ARGON E.S. Gorlachev, S.V. Kutrovskaja................................................ ....... ........72 3

Pagina 3

SISTEMA DI TRIANGOLAZIONE LASER OTTICO AD ALTA AFFIDABILITÀ................................ ...................... ....... 78 E.V. Davydenko.................................................. ...................................................... ........ 78 ASSORBIMENTO DELLA RADIAZIONE ELETTROMAGNETICA DA PARTE DELLA SPALLA UMANA NELLE GAMMA DI FREQUENZE DELLE COMUNICAZIONI CELLULARI E RELE' RADIO V.V. Deryabina, T.K. Artyomova.................................................... ....... ............ 86 INFLUENZA DELLA CURVATURA DEL FRONTE DI FASE SULL'INDEBOLIMENTO DEL CAMPO DURANTE LA DIFFRAZIONE DA PARTE DI UN INSIEME DI SCHERMI ASSORBENTI A.V. Dimov................................................ . ............................................ 94 INFLUENZA DELLA TEMPERATURA CONDIZIONI SULLE OSCILLAZIONI BOLLA NEL LIQUIDO I.G. Zharova.................................................. ...................................................... 102 OTTIMIZZAZIONE DELL'ALGORITMO FRATTALE PER LA COMPRESSIONE DI IMMAGINI STATICHE D.A .Zaramensky............................................ ............................ 110 ANALISI DELL'EFFICACIA DELLA STIMA DELLA FREQUENZA DELLA PORTATE E FASE INIZIALE DEL RICONOSCIMENTO DELLA COSTELLAZIONE DELLA MANIPOLAZIONE DI FASE O.IN. Caravan................................................. .................................... 118 ONDE PERIODICHE NON LINEARI IN UNO STRATO SOTTILE DI LIQUIDO VISCOSO A.IN. Klimov, A.V. Prisyazhnyuk.................................................. ....... .......... 124 CLASSIFICAZIONE DEI CODICI RESISTENTI AI DISTURBI NEI SISTEMI DI TRASMISSIONE DI INFORMAZIONI O.O. Kozlova............................................... ...................................................... 133 STUDIO DEL PROPRIETÀ MECCANICHE DEL LIQUIDO USANDO IL METODO OTTICO E.N. Kokomova.................................................. ....... ................................... 138 ALGORITMO PER IL RICONOSCIMENTO COMANDI CON LIMITATO DIZIONARIO A.V. Konovalov.................................................. .................................... 144 4

Pagina 4

ANALISI DELLA SINCRONIZZAZIONE CAOTICA DI FASE DI SISTEMI PLL ACCOPPIATI UTILIZZANDO LA TRASFORMATA WAVELET CONTINUA Yu.N. Konovalova, A.A. Kotochigov, A.V. Khodunin............................ 151 CONTABILIZZAZIONE DELL'INFLUENZA DELLA ROTAZIONE DEL MAGNETRON Yu.V. Kostrikina.................................................... ................................................ 159 OSCILLAZIONI NON LINEARI DI A STRATO CARICO DI UN LIQUIDO IDEALE SULLA SUPERFICIE DI UN NUCLEO SFERICO SOLIDO NEL CAMPO DELLE FORZE DI FLUTTUAZIONE O.S Kryuchkov............................ .................................................... ........................ 164 RICERCA SULLE PROPRIETÀ OTTICHE DELLE STRUTTURE CrOx/Si M. Yu Kurashov ........ ................................................ .. ............................ 172 ERRORI NELLA PROGETTAZIONE DEGLI ELEMENTI DI FOCUSAZIONE E LORO INFLUENZA SULLA QUALITÀ DELL'IMMAGINE RADIO A.S. Leontiev.................................................... ................................................ 176 TRASMISSIONE VIDEO IN STREAMING RETE OVER IP CON CARICO SIGNIFICATIVO DEL CANALE TRAMITE ALGORITMO DI RECUPERO QoS V.G. Medvedev, V.V. Tupitsyn, E.V. Davydenko............................ 181 RIMOZIONE DEL RUMORE DALLE IMMAGINI BASATA SULLA TRASFORMAZIONE WAVELET A.A. Moiseev, V.A. Volochov............................................... . .............. 189 SINTESI DI UN ALGORITMO PER LA STIMA DELL'INTERFERENZA FRAZIONATA NELLO SPETTRO DEL SEGNALE DI UN SINTETIZZATORE ΔΣ DI FREQUENZE AD ALTA STABILITÀ M.V. Nazarov, V.G. Shushkov................................................ ......... ..... 198 DINAMICA STATISTICA DELL'ANELLO PLL A IMPULSI CON RILEVATORE DI FASE STROBOSCOPICO V.Yu. Novikov, A.S. Teperev, V.G. Shushkov............................................ 209 APPLICAZIONE DI FILTRI WAVELET UNIDIMENSIONALI ABBINATI NEL PROBLEMA DI RICONOSCIMENTO DEL SEGNALE VOCALE S.A. Novoselov.................................................. ...................................... 217 5

Pagina 5

STUDIO DELLE DISOMOGENEITÀ NEI LIQUIDI A.V. Perminov.................................................... ...................................................... 224 TERMOCAMERA DIGITALE BASATA SU DISPOSITIVO FOTORICEVITORE FUR-129L A.I. Topnikov, A.N. Popov, A.A. Selifontov............................ 231 FLUTTUAZIONI DELLE ONDE MILLIMETRICHE IN UN'ATMOSFERA ASSORBENTE TURBOLENTA TERRA-TERRA E.N. Turchia............................................... ...................................................... 239 UTILIZZO DEL RICONOSCIMENTO VOCALE E ALGORITMI DI SINTESI PER CREARE UN CODEC DISCORSO EFFICACE S.V. Uldinovich.................................................. ...................................... 246 INSTABILITÀ ELETTROSTATICA PARAMETRICA DELL'INTERFACCIA DI DUE AMBIENTI S.V. Chernikova, A.S. Golovanov.................................................... ....... ....... 253 6

Pagina 6

SULLA QUESTIONE DELLA VALUTAZIONE DELLA QUALITÀ DELLE IMMAGINI RESTAURATE A.A. Abdulloev, E.Yu. Sautov∗ Abstract Viene considerato il problema della valutazione della qualità delle immagini ricostruite. Per valutare la distorsione visiva, si propone di utilizzare un indice di qualità universale. A differenza di algoritmi simili basati sul criterio dell'errore quadratico medio, l'approccio proposto tiene conto delle distorsioni di luminosità e contrasto, nonché del grado di correlazione tra le immagini di riferimento e quelle ricostruite. I risultati della simulazione mostrano una buona correlazione di questo criterio con la qualità visivamente percepita delle immagini. Introduzione Finora la valutazione più affidabile della qualità dell'immagine è considerata la valutazione media di un esperto. Ma richiede il lavoro continuo di più persone ed è quindi costoso e troppo lento per l'uso pratico. In questo senso, sono preferibili criteri oggettivi (algoritmici) di qualità dell’immagine, che consentono valutazioni automatiche. Attualmente, i seguenti requisiti sono imposti alle misure oggettive di qualità. In primo luogo, questi parametri dovrebbero essere quanto più affidabili possibile dal punto di vista visivo, ovvero essere in buon accordo con i risultati delle valutazioni soggettive. In secondo luogo, devono avere una bassa complessità computazionale, il che ne aumenta il significato pratico. In terzo luogo, è auspicabile che queste metriche abbiano una forma analitica semplice e che possano essere utilizzate come criteri di ottimalità nella scelta dei parametri per un sistema di elaborazione delle immagini. Attualmente, la misura oggettiva più popolare è il rapporto segnale-rumore di picco (PSNR). Viene comunemente utilizzato per confrontare diversi algoritmi di elaborazione. ∗ Il lavoro è stato svolto sotto la guida di V.V. Khryashchev. 7

  • Fisica
    • Traduzione

    Il nostro Modello Standard delle particelle elementari e delle interazioni è recentemente diventato tanto completo quanto si potrebbe desiderare. Ogni singola particella elementare, in tutte le sue forme possibili, è stata creata in laboratorio, misurata e ne sono state determinate le proprietà. Quelli più longevi, il quark top, l’antiquark, il neutrino tau e l’antineutrino, e infine il bosone di Higgs, sono caduti vittima delle nostre capacità.

    E quest'ultimo - il bosone di Higgs - ha risolto anche un vecchio problema della fisica: finalmente possiamo dimostrare da dove le particelle elementari ottengono la loro massa!

    È tutto fantastico, ma la scienza non finisce quando finisci di risolvere questo enigma. Al contrario, solleva domande importanti, e una di queste è “cosa succederà dopo?” Per quanto riguarda il Modello Standard possiamo dire che non sappiamo ancora tutto. E per la maggior parte dei fisici, una domanda è particolarmente importante: per descriverla, consideriamo prima la seguente proprietà del Modello Standard.


    Da un lato, le forze deboli, elettromagnetiche e forti possono essere molto importanti, a seconda delle loro energie e delle distanze alle quali avviene l'interazione. Ma questo non è il caso della gravità.

    Possiamo prendere due particelle elementari qualsiasi, di qualsiasi massa e soggette a qualsiasi interazione, e scoprire che la gravità è 40 ordini di grandezza più debole di qualsiasi altra forza nell'Universo. Ciò significa che la forza di gravità è 10 40 volte più debole delle tre forze rimanenti. Ad esempio, anche se non sono fondamentali, se si prendono due protoni e li si separano di un metro, la repulsione elettromagnetica tra loro sarà 10 40 volte più forte dell'attrazione gravitazionale. O, in altre parole, dobbiamo aumentare la forza di gravità di un fattore pari a 10.000.000.000.000.000.000.000.000.000.000.000.000.000 per eguagliare qualsiasi altra forza.

    In questo caso, non puoi semplicemente aumentare la massa di un protone di 10 20 volte in modo che la gravità li unisca, superando la forza elettromagnetica.

    Invece, affinché reazioni come quella illustrata sopra avvengano spontaneamente quando i protoni superano la loro repulsione elettromagnetica, è necessario riunire 10 56 protoni. Solo unendosi e soccombendo alla forza di gravità potranno superare l’elettromagnetismo. Risulta che 10 56 protoni costituiscono la massa minima possibile di una stella.

    Questa è una descrizione di come funziona l'Universo, ma non sappiamo perché funzioni in questo modo. Perché la gravità è molto più debole rispetto ad altre interazioni? Perché la "carica gravitazionale" (cioè la massa) è molto più debole di quella elettrica o del colore, o addirittura debole?

    Questo è il problema della gerarchia ed è, per molte ragioni, il più grande problema irrisolto della fisica. Non conosciamo la risposta, ma non possiamo dire di essere completamente ignoranti. In teoria, abbiamo alcune buone idee per trovare una soluzione e uno strumento per trovare prove della loro correttezza.

    Finora, il Large Hadron Collider, il collisore a più alta energia, ha raggiunto livelli di energia senza precedenti in laboratorio, raccolto risme di dati e ricostruito ciò che è accaduto nei punti di collisione. Ciò include la creazione di nuove particelle finora mai viste (come il bosone di Higgs) e la comparsa di vecchie e ben note particelle del Modello Standard (quark, leptoni, bosoni di Gauge). È anche in grado, se esistente, di produrre qualsiasi altra particella non inclusa nel Modello Standard.

    Ci sono quattro modi possibili che conosco – cioè quattro buone idee – per risolvere il problema della gerarchia. La buona notizia è che se la natura ne sceglie uno, l’LHC lo troverà! (E in caso contrario, la ricerca continuerà).

    A parte il bosone di Higgs, scoperto diversi anni fa, all'LHC non è stata trovata alcuna nuova particella fondamentale. (Inoltre, non si osserva alcuna nuova particella candidata interessante). Eppure, la particella trovata corrispondeva pienamente alla descrizione del Modello Standard; non sono stati osservati accenni statisticamente significativi di nuova fisica. Non ai bosoni di Higgs compositi, non alle particelle multiple di Higgs, non ai decadimenti non standard, niente del genere.

    Ma ora abbiamo iniziato a ottenere dati da energie ancora più elevate, il doppio delle precedenti, fino a 13-14 TeV, per trovare qualcos'altro. E quali sono le soluzioni possibili e ragionevoli al problema della gerarchia in questo senso?

    1) Supersimmetria, o SUSY. La supersimmetria è una simmetria speciale che può far sì che le masse normali di qualsiasi particella abbastanza grande da consentire alla gravità di essere paragonabile ad altre influenze si annullino a vicenda con un alto grado di precisione. Questa simmetria suggerisce anche che ciascuna particella nel modello standard ha un partner superparticella e che esistono cinque particelle di Higgs e i loro cinque superpartner. Se una tale simmetria esiste, deve essere rotta, altrimenti i superpartner avrebbero le stesse masse delle particelle ordinarie e sarebbero stati trovati molto tempo fa.

    Se SUSY esiste su una scala adatta a risolvere il problema della gerarchia, allora LHC, raggiungendo energie di 14 TeV, dovrebbe trovare almeno un superpartner, oltre a una seconda particella di Higgs. Altrimenti, l’esistenza di superpartner molto pesanti porterà essa stessa a un altro problema gerarchico che non avrà una buona soluzione. (È interessante notare che l’assenza di particelle SUSY a tutte le energie confuterebbe la teoria delle stringhe, poiché la supersimmetria è una condizione necessaria per le teorie delle stringhe contenenti il ​​modello standard delle particelle elementari).

    Ecco la prima soluzione possibile al problema della gerarchia, che al momento non ha alcuna evidenza.

    È possibile creare minuscole staffe superraffreddate riempite di cristalli piezoelettrici (che producono elettricità quando deformati), con distanze tra loro. Questa tecnologia ci consente di imporre limiti di 5-10 micron su misurazioni “grandi”. In altre parole, la gravità funziona secondo le previsioni della relatività generale su scale molto più piccole di un millimetro. Quindi, se ci sono grandi dimensioni extra, esse si trovano a livelli energetici inaccessibili all’LHC e, cosa più importante, non risolvono il problema della gerarchia.

    Naturalmente, per il problema della gerarchia potrebbe esserci una soluzione completamente diversa che non può essere trovata sui moderni collisori, oppure non esiste alcuna soluzione; potrebbe semplicemente essere una proprietà della natura senza alcuna spiegazione per ciò. Ma la scienza non avanzerà senza provarci, ed è proprio ciò che queste idee e ricerche stanno cercando di fare: far avanzare la nostra conoscenza dell’universo. E, come sempre, con l'inizio del secondo ciclo di LHC, non vedo l'ora di vedere cosa potrebbe apparire lì, oltre al già scoperto bosone di Higgs!

    tag:

    • gravità
    • interazioni fondamentali
    • cisterna
    Aggiungere etichette

    Saggio

    nella fisica

    sul tema:

    « Problemi della fisica moderna»

    Cominciamo con il problema che ora attira la massima attenzione dei fisici, su cui, forse, sta lavorando il maggior numero di ricercatori e laboratori di ricerca in tutto il mondo: questo è il problema del nucleo atomico e, in particolare, come il suo più grande parte rilevante e importante: il cosiddetto problema dell’uranio.

    È stato possibile stabilire che gli atomi sono costituiti da un nucleo relativamente pesante, carico positivamente, circondato da un certo numero di elettroni. La carica positiva del nucleo e le cariche negative degli elettroni che lo circondano si annullano a vicenda. Nel complesso l'atomo appare neutro.

    Dal 1913 fino quasi al 1930, i fisici studiarono attentamente le proprietà e le manifestazioni esterne dell'atmosfera degli elettroni che circondano il nucleo atomico. Questi studi hanno portato a un'unica teoria completa che ha scoperto nuove leggi sul movimento degli elettroni in un atomo, a noi precedentemente sconosciute. Questa teoria è chiamata teoria quantistica, o ondulatoria, della materia. Ci torneremo più tardi.

    Dal 1930 circa, l'attenzione principale fu rivolta al nucleo atomico. Il nucleo ci interessa particolarmente perché in esso è concentrata quasi tutta la massa dell'atomo. E la massa è una misura della riserva di energia che possiede un dato sistema.

    Ogni grammo di qualsiasi sostanza contiene un'energia conosciuta con precisione e, per di più, molto significativa. Ad esempio, un bicchiere di tè che pesa circa 200 g contiene una quantità di energia che richiederebbe la combustione di circa un milione di tonnellate di carbone per essere ottenuta.

    Questa energia si trova proprio nel nucleo atomico, perché nel nucleo è contenuta 0,999 dell'energia totale, cioè l'intera massa del corpo, e solo meno dello 0,001 della massa totale è da attribuire all'energia degli elettroni. Le colossali riserve di energia situate nei nuclei sono incomparabili a qualsiasi altra forma di energia come l’abbiamo conosciuta fino ad ora.

    Naturalmente, la speranza di possedere questa energia è allettante. Ma per fare questo bisogna prima studiarlo e poi trovare il modo di utilizzarlo.

    Ma il nucleo ci interessa anche per altri motivi. Il nucleo di un atomo determina interamente la sua intera natura, determina le sue proprietà chimiche e la sua individualità.

    Se il ferro differisce dal rame, dal carbonio, dal piombo, allora questa differenza risiede proprio nei nuclei atomici e non negli elettroni. Tutti i corpi hanno gli stessi elettroni e qualsiasi atomo può perdere parte dei suoi elettroni, al punto che tutti gli elettroni dell'atomo possono essere strappati. Finché il nucleo atomico con la sua carica positiva è intatto e immutato, attirerà sempre tanti elettroni quanti sono necessari per compensare la sua carica. Se il nucleo d'argento ha 47 cariche, attaccherà sempre a sé 47 elettroni. Quindi, mentre miro al nucleo, abbiamo a che fare con lo stesso elemento, con la stessa sostanza. Non appena il nucleo viene cambiato, un elemento chimico diventa un altro. Solo allora il sogno dell'alchimia di lunga data e da tempo abbandonato - la trasformazione di alcuni elementi in altri - si sarebbe avverato. Nella fase attuale della storia, questo sogno si è avverato, ma non proprio nelle forme e non con i risultati che gli alchimisti si aspettavano.

    Cosa sappiamo del nucleo atomico? Il nucleo, a sua volta, è costituito da componenti ancora più piccoli. Questi componenti rappresentano i nuclei più semplici a noi conosciuti in natura.

    Il nucleo più leggero e quindi più semplice è il nucleo dell'atomo di idrogeno. L'idrogeno è il primo elemento della tavola periodica con un peso atomico di circa 1. Il nucleo dell'idrogeno fa parte di tutti gli altri nuclei. Ma, d'altra parte, è facile vedere che tutti i nuclei non possono essere costituiti solo da nuclei di idrogeno, come Prout supponeva molto tempo fa, più di 100 anni fa.

    I nuclei degli atomi hanno una certa massa, data dal peso atomico, e una certa carica. La carica nucleare specifica il numero occupato da un dato elemento V Il sistema periodico di Mendeleev.

    L'idrogeno in questo sistema è il primo elemento: ha una carica positiva e un elettrone. Il secondo elemento in ordine ha un nucleo con doppia carica, il terzo con tripla carica, ecc. fino all'ultimo e il più pesante di tutti gli elementi, l'uranio, il cui nucleo ha 92 cariche positive.

    Mendeleev, sistematizzando l'enorme materiale sperimentale nel campo della chimica, creò la tavola periodica. Lui, ovviamente, non sospettava a quel tempo l'esistenza dei nuclei, ma non pensava che l'ordine degli elementi nel sistema da lui creato fosse determinato semplicemente dalla carica del nucleo e niente di più. Si scopre che queste due caratteristiche dei nuclei atomici - peso atomico e carica - non corrispondono a ciò che ci aspetteremmo in base all'ipotesi di Prout.

    Quindi, il secondo elemento - l'elio ha un peso atomico di 4. Se è composto da 4 nuclei di idrogeno, la sua carica dovrebbe essere 4, ma nel frattempo la sua carica è 2, perché è il secondo elemento. Pertanto, devi pensare che ci sono solo 2 nuclei di idrogeno nell'elio. Chiamiamo protoni i nuclei di idrogeno. Ma A Inoltre, nel nucleo dell'elio ci sono altre 2 unità di massa prive di carica. Il secondo componente del nucleo deve essere considerato un nucleo di idrogeno scarico. Dobbiamo distinguere tra nuclei di idrogeno che hanno carica, o protoni, e nuclei che non hanno carica elettrica, quelli neutri, li chiamiamo neutroni.

    Tutti i nuclei sono costituiti da protoni e neutroni. L'elio ha 2 protoni e 2 neutroni. L'azoto ha 7 protoni e 7 neutroni. L'ossigeno ha 8 protoni e 8 neutroni, il carbonio C ha protoni e 6 neutroni.

    Ma poi questa semplicità viene in qualche modo violata, il numero di neutroni aumenta sempre di più rispetto al numero di protoni, e nell'ultimo elemento, l'uranio, ci sono 92 cariche, 92 protoni e il suo peso atomico è 238. Di conseguenza, un altro A 92 protoni si aggiungono 146 neutroni.

    Certo, non si può pensare che ciò che conosciamo nel 1940 sia già un riflesso esaustivo del mondo reale e la diversità si esaurisce con queste particelle, che sono elementari nel senso letterale del termine. Il concetto di elementarietà significa solo un certo stadio nella nostra penetrazione nelle profondità della natura. In questa fase, però, conosciamo la composizione dell'atomo solo fino a questi elementi.

    Questa semplice immagine in realtà non era così facilmente comprensibile. Abbiamo dovuto superare tutta una serie di difficoltà, tutta una serie di contraddizioni, che già al momento della loro identificazione sembravano senza speranza, ma che, come sempre nella storia della scienza, si sono rivelate solo facce diverse di un quadro più generale , che era una sintesi di quella che sembrava essere una contraddizione, e siamo passati a quella successiva, una comprensione più profonda del problema.

    La più importante di queste difficoltà si è rivelata la seguente: all'inizio del nostro secolo era già noto che le particelle b (si sono rivelate nuclei di elio) e le particelle b (elettroni) volano fuori dalle profondità del pianeta atomi radioattivi (all'epoca non si sospettava ancora il nucleo). Sembrava che ciò che vola fuori dall'atomo sia ciò di cui esso consiste. Di conseguenza, i nuclei degli atomi sembravano costituiti da nuclei di elio ed elettroni.

    L'errore della prima parte di questa affermazione è chiaro: è ovvio che è impossibile comporre un nucleo di idrogeno da nuclei di elio quattro volte più pesanti: la parte non può essere più grande del tutto.

    Anche la seconda parte di questa affermazione si è rivelata errata. Gli elettroni vengono effettivamente espulsi durante i processi nucleari, eppure non ci sono elettroni nei nuclei. Sembrerebbe che qui ci sia una contraddizione logica. È così?

    Sappiamo che gli atomi emettono luce, quanti di luce (fotoni).

    Perché questi fotoni vengono immagazzinati nell'atomo sotto forma di luce e aspettano il momento di essere rilasciati? Ovviamente no. Comprendiamo l'emissione di luce in modo tale che le cariche elettriche di un atomo, passando da uno stato all'altro, rilasciano una certa quantità di energia, che si trasforma sotto forma di energia radiante, propagandosi nello spazio.

    Considerazioni simili si possono fare per quanto riguarda l’elettrone. Per una serie di ragioni, un elettrone non può essere localizzato nel nucleo atomico. Ma non può essere creato nel nucleo, come un fotone, perché ha una carica elettrica negativa. È assodato che la carica elettrica, come l'energia e la materia in generale, rimane invariata; la quantità totale di elettricità non viene creata da nessuna parte e non scompare da nessuna parte. Di conseguenza, se viene portata via una carica negativa, il nucleo riceve una uguale carica positiva. Il processo di emissione di elettroni è accompagnato da un cambiamento nella carica del nucleo. Ma il nucleo è costituito da protopop e neutroni, il che significa che uno dei neutroni privi di carica si è trasformato in un protone carico positivamente.

    Un singolo elettrone negativo non può né apparire né scomparire. Ma due cariche opposte possono, se si avvicinano sufficientemente, annullarsi a vicenda o addirittura scomparire completamente, liberando la loro riserva di energia sotto forma di energia radiante (fotoni).

    Quali sono queste cariche positive? È stato possibile stabilire che, oltre agli elettroni negativi, in natura si osservano cariche positive e possono essere create mediante laboratori e tecnologia, che in tutte le loro proprietà: in massa, in grandezza di carica, sono abbastanza coerenti con gli elettroni, ma hanno solo carica positiva. Chiamiamo tale carica un positrone.

    Pertanto, distinguiamo tra elettroni (negativi) e positroni (positivi), che differiscono solo per il segno opposto della carica. Vicino ai nuclei possono verificarsi entrambi i processi di combinazione dei positroni con gli elettroni e di scissione in un elettrone e un positrone, con un elettrone che lascia l'atomo e un positrone che entra nel nucleo, trasformando un neutrone in un protone. Contemporaneamente all'elettrone esce anche una particella priva di carica, il neutrino.

    Si osservano anche processi nel nucleo in cui un elettrone trasferisce la sua carica al nucleo, trasformando un protone in un neutrone e un positrone vola fuori dall'atomo. Quando un elettrone viene emesso da un atomo, la carica del nucleo aumenta di uno; Quando viene emesso un positrone o un protone, la carica e il numero nella tavola periodica diminuiscono di un'unità.

    Tutti i nuclei sono costituiti da protoni carichi e neutroni non carichi. La domanda è: quali forze sono trattenute nel nucleo atomico, cosa li collega tra loro, cosa determina la costruzione di vari nuclei atomici da questi elementi?

    Una domanda simile sulla connessione tra il nucleo e gli elettroni in un atomo ha ricevuto una risposta semplice. La carica positiva del nucleo attrae a sé gli elettroni negativi secondo le leggi fondamentali dell'elettricità, proprio come il Sole attira a sé la Terra e gli altri pianeti attraverso le forze gravitazionali. Ma nel nucleo atomico una delle parti costituenti è neutra. Come si collega al protone carico positivamente e agli altri neutroni? Gli esperimenti hanno dimostrato che le forze che legano insieme due neutroni sono approssimativamente della stessa grandezza delle forze che legano un neutrone con un protone e anche 2 protoni tra loro. Queste non sono forze gravitazionali, né interazioni elettriche o magnetiche, ma forze di natura speciale che derivano dalla meccanica quantistica, o ondulatoria.

    Uno degli scienziati sovietici, I.E. "Gamm ha ipotizzato che la connessione tra un neutrone e un protone sia fornita da cariche elettriche: elettroni e positroni. La loro emissione e assorbimento dovrebbero effettivamente fornire alcune forze di connessione tra un protone e un neutrone. Ma, come hanno dimostrato i calcoli, queste forze sono molte volte più deboli di quelle che effettivamente esistono nel nucleo e ne forniscono la forza.

    Allora il fisico giapponese Yukawa tentò di porre il problema in questo modo: poiché l'interazione tra elettroni e positroni non è sufficiente a spiegare le forze nucleari, quali sono allora le particelle che fornirebbero forze sufficienti? E calcolò che se nel nucleo si trovassero particelle negative e positive con una massa 200 volte maggiore di un positrone e un elettrone, allora queste particelle fornirebbero la corretta rilevanza delle forze di interazione.

    Dopo un po 'di tempo, queste particelle furono scoperte nei raggi cosmici che, provenienti dallo spazio, penetrano nell'atmosfera e vengono osservati sulla superficie terrestre, sulle alture dell'Elbrus, e persino nel sottosuolo a una profondità abbastanza grande. Si scopre che i raggi cosmici, entrando nell'atmosfera, creano particelle cariche negativamente e positivamente con una massa circa 200 volte maggiore della massa di un elettrone. Queste particelle sono allo stesso tempo 10 volte più leggere del protone e del neutrone (che sono circa 2000 volte più pesanti dell'elettrone). Quindi, queste sono alcune particelle di peso “medio”. Furono quindi chiamati mesotroni, o mesoni in breve. La loro esistenza come parte dei raggi cosmici nell'atmosfera terrestre è ormai fuori dubbio.

    Lo stesso I.E. Tamm ha recentemente studiato le leggi del movimento dei mesoni. Si scopre che hanno proprietà peculiari, per molti aspetti non simili alle proprietà degli elettroni e dei positroni. Basandosi sulla teoria dei mesoni, insieme a L.D. Landau creò una teoria estremamente interessante sulla formazione di neutroni e protoni.

    Tamm e Landau immaginano che il neutrone sia un protone connesso a un mesone negativo. Un protone carico positivamente con un elettrone negativo forma un atomo di idrogeno, che ci è ben noto. Ma se al posto dell'elettrone negativo c'è un mesone negativo, una particella 200 volte più pesante, con proprietà speciali, allora una tale combinazione occupa molto meno spazio e in tutte le sue proprietà corrisponde strettamente a ciò che sappiamo del neutrone.

    Secondo questa ipotesi, si ritiene che un neutrone sia un protone accoppiato a un mesone negativo e, viceversa, un protone sia un neutrone accoppiato a un mesone positivo.

    Pertanto, le particelle “elementari” - protoni e neutroni - davanti ai nostri occhi iniziano di nuovo a separarsi e rivelano la loro complessa struttura.

    Ma forse ancora più interessante è che una tale teoria ci riporta nuovamente alla teoria elettrica della materia, sconvolta dalla comparsa dei neutroni. Anche ora si può affermare che tutti gli elementi dell'atomo e del suo nucleo finora conosciuti sono essenzialmente di origine elettrica.

    Non bisogna però pensare che nel nucleo si tratti semplicemente della ripetizione delle proprietà dello stesso atomo.

    Passando dall'esperienza accumulata in astronomia e meccanica alla scala dell'atomo, a 100 milionesimi di centimetro, ci troviamo in un nuovo mondo dove compaiono nuove proprietà fisiche della fisica atomica precedentemente sconosciute. Queste proprietà sono spiegate dalla meccanica quantistica.

    È del tutto naturale aspettarsi, e, a quanto pare, l'esperienza ce lo sta già mostrando, che quando passiamo allo stadio successivo, al nucleo atomico, e il nucleo atomico è ancora 100mila volte più piccolo dell'atomo, allora qui scopriamo anche nuove leggi specifiche sui processi nucleari che non si manifestano in modo evidente né nell'atomo né nei grandi corpi.

    Quella meccanica quantistica, che ci descrive perfettamente tutte le proprietà dei sistemi atomici, risulta essere insufficiente e deve essere integrata e corretta in accordo con i fenomeni che si riscontrano nel nucleo atomico.

    Ciascuno di questi stadi quantitativi è accompagnato dalla manifestazione di proprietà qualitativamente nuove. Le forze che collegano il protone e il neutrone con il mesone non sono le forze di attrazione elettrostatica, ma le leggi di Coulomb, che collegano il nucleo di idrogeno con il suo elettrone, sono forze di natura più complessa, descritte dalla teoria di Tamm.

    Ecco come ci appare ora la struttura del nucleo atomico. Sposi Pierre e Marie Curie nel 1899. scoprì il radio e ne studiò le proprietà. Ma la via dell'osservazione, inevitabile nella prima fase, poiché non ne avevamo altre, è una via estremamente inefficace per lo sviluppo della scienza.

    Il rapido sviluppo è assicurato dalla possibilità di un'influenza attiva sull'oggetto studiato. Abbiamo cominciato a riconoscere il nucleo atomico quando abbiamo imparato a modificarlo attivamente. Questo è audace. circa 20 anni fa al famoso fisico inglese Rutherford.

    È noto da tempo che quando due nuclei atomici si incontrano, ci si può aspettare che i nuclei si influenzino a vicenda. Ma come realizzare un simile incontro? Dopotutto, i nuclei sono carichi positivamente. Quando si avvicinano, si respingono; le loro dimensioni sono così piccole che le forze repulsive raggiungono dimensioni enormi. L'energia atomica è necessaria per superare queste forze e costringere un nucleo a incontrarne un altro. Per accumulare tale energia era necessario costringere i nuclei a passare attraverso una differenza di potenziale dell'ordine di 1 milione di V. E così, quando nel 1930 furono ottenuti dei tubi cavi, nei quali era possibile creare differenze di potenziale superiori a 0,5 milioni di V, furono immediatamente utilizzati per influenzare i nuclei atomici.

    Va detto che tali tubi non sono stati ottenuti dalla fisica del nucleo atomico, ma dall'ingegneria elettrica in relazione al problema della trasmissione di energia su lunghe distanze.

    Un sogno di lunga data dell'ingegneria elettrica ad alta tensione è il passaggio dalla corrente alternata a quella continua. Per fare ciò, è necessario essere in grado di convertire le correnti alternate ad alta tensione in correnti continue e viceversa.

    Fu per questo scopo, ancora oggi non raggiunto, che furono creati tubi in cui i nuclei di idrogeno attraversavano oltre 0,5 milioni di V e ricevevano un'elevata energia cinetica. Questa scoperta tecnica fu immediatamente sfruttata e a Cambridge si tentò di dirigere queste particelle veloci nei nuclei di vari atomi.

    Naturalmente, temendo che la repulsione reciproca non permettesse ai nuclei di incontrarsi, presero i nuclei con la carica più bassa. Il protone ha la carica più piccola. Pertanto, in un tubo cavo, il flusso di nuclei di idrogeno è passato attraverso una differenza di potenziale fino a 700 mila V. In futuro, consentiremo che l'energia che una carica di elettrone o protone riceve dopo aver superato 1 V venga chiamata elettronvolt. I protoni, che ricevevano un'energia di circa 0,7 milioni di eV, furono diretti verso un preparato contenente litio.

    Il litio occupa il terzo posto nella tavola periodica. Il suo peso atomico è 7; ha 3 protoni e 4 neutroni. Quando un altro protone, entrando nel nucleo del litio, si unisce ad esso, otterremo un sistema di 4 protoni e 4 neutroni, cioè il quarto elemento è il berillio con un peso atomico di 8. Un tale nucleo di berillio si disintegra in due metà, ciascuna delle quali ha un peso atomico di 4 e una carica di 2, cioè è un nucleo di elio.

    In effetti, questo è ciò che è stato osservato. Quando il litio veniva bombardato da protoni, i nuclei di elio venivano espulsi; Inoltre si può constatare che 2 particelle b con un'energia di 8,5 milioni di eV volano contemporaneamente in direzioni opposte.

    Da questa esperienza possiamo trarre due conclusioni. Innanzitutto, abbiamo ottenuto l'elio dall'idrogeno e dal litio. In secondo luogo, dopo aver speso un protone con un'energia di 0,5 milioni di eV (e quindi 70.000 eV si sono rivelati sufficienti), abbiamo ricevuto 2 particelle, ciascuna delle quali ha 8,5 milioni di eV, cioè 17 milioni di eV.

    In questo processo abbiamo quindi effettuato una reazione accompagnata dal rilascio di energia dal nucleo atomico. Avendo speso solo 0,5 milioni di eV, ne abbiamo ricevuti 17 milioni, 35 volte di più.

    Ma da dove viene questa energia? Naturalmente la legge di conservazione dell’energia non viene violata. Come sempre, si tratta della trasformazione di un tipo di energia in un altro. L'esperienza dimostra che non è necessario cercare fonti misteriose e ancora sconosciute.

    Abbiamo già visto che la massa misura la quantità di energia immagazzinata in un corpo. Se rilasciassimo un'energia di 17 milioni di eV, dovremmo aspettarci che la riserva energetica negli atomi sia diminuita e quindi il loro peso (massa) sia diminuito.

    Prima della collisione, avevamo un nucleo di litio il cui peso atomico esatto è 7,01819, e di idrogeno, il cui peso atomico è 1,00813; quindi, prima dell'incontro c'era una somma di pesi atomici di 8.02632, e dopo la collisione furono rilasciate 2 particelle di elio, il cui peso atomico era 4.00389. Ciò significa che due nuclei di elio hanno un peso atomico di 8,0078. Se confrontiamo questi numeri, risulta che invece della somma dei pesi atomici rimane 8.026, rimane 8.008; la massa è diminuita di 0,018 unità.

    Questa massa dovrebbe produrre un'energia di 17,25 milioni di eV, ma in realtà ne sono stati misurati 17,13 milioni. Non possiamo aspettarci una coincidenza migliore.

    Possiamo dire di aver risolto il problema dell'alchimia - trasformare un elemento in un altro - e il problema di ottenere energia dalle riserve intraatomiche?

    Questa p è vera e falsa. Sbagliato nel senso pratico del termine. Dopotutto, quando parliamo della possibilità di trasformare gli elementi, ci aspettiamo che si ottengano quantità di sostanza tali da poter fare qualcosa. Lo stesso vale per l'energia.

    Da un singolo nucleo abbiamo effettivamente ottenuto 35 volte più energia di quella che abbiamo speso. Ma possiamo fare di questo fenomeno la base per l’utilizzo tecnico delle riserve energetiche intranucleari?

    Sfortunatamente no. Dell'intero flusso di protoni, circa uno su un milione incontrerà lungo il percorso un nucleo di litio; Altri 999.999 protopop cadono nel nucleo e sprecano la loro energia. Il fatto è che la nostra "artiglieria spara" flussi di protoni nei nuclei degli atomi senza "vista". Ecco perché su un milione solo uno cadrà nel nucleo; il bilancio complessivo non è redditizio. Per “bombardare” il nucleo viene utilizzata un’enorme macchina che consuma una grande quantità di elettricità, e il risultato sono numerosi atomi espulsi, la cui energia non può essere utilizzata nemmeno per un piccolo giocattolo.

    Ecco come stavano le cose 9 anni fa. Come si è sviluppata ulteriormente la fisica nucleare? Con la scoperta dei neutroni abbiamo un proiettile che può raggiungere qualsiasi nucleo, poiché tra loro non esistono forze repulsive. Grazie a ciò, ora è possibile effettuare reazioni in tutta la tavola periodica utilizzando i neutroni. Non esiste un singolo elemento che non possiamo trasformare in un altro. Possiamo, ad esempio, trasformare il mercurio in oro, ma in quantità insignificanti. Si è scoperto che esistono molte combinazioni diverse di protoni e neutroni.

    Mendeleev immaginò che esistessero 92 atomi diversi, che ogni cella corrispondesse a un tipo di atomo. Prendiamo la 17a cella, occupata dal cloro; quindi il cloro è un elemento il cui nucleo ha 17 cariche; il numero in esso contenuto può essere 18 o 20; tutti questi saranno nuclei costruiti diversamente con pesi atomici diversi, ma poiché le loro cariche sono le stesse, questi sono nuclei dello stesso elemento chimico. Li chiamiamo isotopi del cloro. Chimicamente gli isotopi sono indistinguibili; ecco perché Mendeleev sospettava la loro esistenza. Il numero di nuclei diversi è quindi molto maggiore di 92. Oggi conosciamo circa 350 diversi nuclei stabili, che si trovano in 92 cellule della tavola periodica, e, inoltre, circa 250 nuclei radioattivi che, quando decadono, emettono raggi - protoni, neutroni, positroni, elettroni, raggi g (fotoni), ecc.

    Oltre a quelle sostanze radioattive esistenti in natura (questi sono gli elementi più pesanti della tavola periodica), ora abbiamo l'opportunità di produrre artificialmente qualsiasi sostanza radioattiva, costituita sia da atomi leggeri che da atomi medi e pesanti. In particolare, possiamo ottenere sodio radioattivo se mangiamo sale da cucina, che contiene sodio radioattivo, possiamo seguire il movimento degli atomi di sodio radioattivo in tutto il corpo. Gli atomi radioattivi sono contrassegnati; emettono raggi che possiamo rilevare e con il loro aiuto tracciare il percorso di una determinata sostanza in qualsiasi organismo vivente.

    Allo stesso modo, introducendo atomi radioattivi nei composti chimici, possiamo tracciare l'intera dinamica del processo, la cinetica della reazione chimica. I metodi precedenti determinavano il risultato finale della reazione, ma ora possiamo osservarne l'intero corso.

    Ciò fornisce un potente strumento per ulteriori ricerche nel campo della chimica, della biologia e della geologia; in agricoltura sarà possibile monitorare il movimento dell'umidità nel terreno, il movimento dei nutrienti, il loro trasferimento alle radici delle piante, ecc. Ciò che finora non potevamo vedere direttamente diventa accessibile.

    Torniamo alla domanda se sia possibile ottenere energia dalle riserve intranucleari?

    Due anni fa sembrava un compito senza speranza. È vero, due anni fa era chiaro che oltre i confini di ciò che era noto c'era un'enorme area sconosciuta, ma

    Non abbiamo visto alcun modo specifico di utilizzare l’energia nucleare.

    Alla fine di dicembre 1938 si scoprì un fenomeno che cambiò completamente la situazione della questione. Questo è il fenomeno del decadimento dell'uranio.

    Il decadimento dell'uranio differisce nettamente da altri processi di decadimento radioattivo precedentemente noti, in cui alcune particelle - un protone, un positrone, un elettrone - volano fuori dal nucleo. Quando un neutrone colpisce un nucleo di uranio, si può dire che il nucleo si divide in 2 parti. Durante questo processo, a quanto pare, molti più neutroni vengono emessi dal nucleo. E questo porta alla seguente conclusione.

    Immagina che un neutrone sia volato in una massa di uranio, abbia incontrato alcuni dei suoi nuclei, lo abbia diviso, rilasciando un'enorme quantità di energia, fino a circa 160 milioni di eV, e, inoltre, volano via anche 3 neutroni, che incontreranno l'uranio vicino i nuclei, dividendoli, ciascuno rilascerà nuovamente 160 milioni di eV e darà nuovamente 3 neutroni.

    È facile immaginare come si svilupperà questo processo. Un nucleo fissile produrrà 3 neutroni. Provocheranno il frazionamento di tre nuovi, ognuno dei quali ne darà altri 3, ne appariranno 9, poi 27, poi 81, ecc. neutroni. E in una frazione insignificante di secondo questo processo si diffonderà all'intera massa dei nuclei di uranio.

    Per confrontare l'energia che si libera durante il collasso dell'uranio con le energie che conosciamo, lasciatemi fare questo paragone. Ogni atomo di una sostanza infiammabile o esplosiva rilascia circa 10 eV di energia, ma in questo caso un nucleo rilascia 160 milioni di eV. Di conseguenza, l'energia qui è 16 milioni di volte superiore a quella delle emissioni esplosive. Ciò significa che ci sarà un'esplosione la cui forza sarà 16 milioni di volte maggiore dell'esplosione dell'esplosivo più potente.

    Spesso, soprattutto ai nostri giorni, come risultato inevitabile della fase imperialista di sviluppo del capitalismo, le conquiste scientifiche vengono utilizzate in guerra per sterminare le persone. Ma è naturale per noi pensare ad utilizzarli a beneficio dell’uomo.

    Tali riserve concentrate di energia possono essere utilizzate come forza trainante per tutta la nostra tecnologia. Come farlo è, ovviamente, un compito del tutto poco chiaro. Le nuove fonti energetiche non dispongono di una tecnologia già pronta. Dovremo crearlo di nuovo. Ma prima di tutto bisogna imparare a produrre energia. Per arrivare a questo ci sono ancora difficoltà irrisolte.

    L'uranio è al 92° posto nella tavola periodica, ha 92 cariche, ma ci sono diversi isotopi. Uno ha un peso atomico di 238, un altro di 234, il terzo di 235. Di tutti questi diversi urani, una valanga di energia può svilupparsi solo nell'uranio 235, ma di esso solo lo 0,7% · Quasi il 99% è uranio-238, che ha la proprietà di intercettare i neutroni lungo il percorso. Un neutrone emesso da un nucleo di uranio-235 prima che raggiunga un altro nucleo di uranio-235 verrà intercettato da un nucleo di uranio-238. La valanga non crescerà. Ma un simile compito non può essere abbandonato facilmente. Una via d’uscita è produrre uranio che contenga quasi solo uranio-235.

    Finora, però, era possibile separare gli isotopi solo in quantità di frazioni di milligrammo e per realizzare una valanga è necessario disporre di diverse tonnellate di uranio-235. Da frazioni di milligrammo a diverse tonnellate, il percorso è così lontano che sembra fantascienza e non un compito reale. Ma anche se attualmente non conosciamo mezzi economici e diffusi per la separazione degli isotopi, ciò non significa che tutte le strade in tal senso siano chiuse. Pertanto, sia gli scienziati sovietici che quelli stranieri stanno ora lavorando diligentemente sui metodi di separazione isotopica.

    Ma è possibile anche un altro modo di mescolare l'uranio con una sostanza che assorbe poco, ma disperde e rallenta fortemente i neutroni. Il fatto è che i neutroni lenti, che dividono l'uranio-235, non vengono fermati dall'uranio-238. La situazione al momento è tale che un approccio semplice non porta all'obiettivo, ma ci sono ancora diverse possibilità, molto complesse, difficili, ma non senza speranza. Se uno di questi percorsi avesse portato all'obiettivo, allora, presumibilmente, avrebbe prodotto una rivoluzione in tutta la tecnologia, che nella sua importanza avrebbe superato l'avvento del motore a vapore e dell'elettricità.

    Non c'è quindi motivo di credere che il problema sia risolto, che basti imparare a usare l'energia e che tutta la vecchia tecnologia possa essere gettata nella spazzatura. Niente del genere. In primo luogo, non sappiamo ancora come estrarre energia dall'uranio e, in secondo luogo, se fosse possibile estrarre p, il suo utilizzo richiederebbe molto tempo e lavoro. Poiché queste colossali riserve di energia esistono nei nuclei, si potrebbe pensare che prima o poi si troverà il modo di utilizzarle.

    Per quanto riguarda lo studio del problema dell'uranio, nell'Unione è stato condotto uno studio estremamente interessante. Questo è il lavoro di due giovani scienziati sovietici: il membro del Komsomol Flerov e il giovane fisico sovietico Petrzhak. Studiando il fenomeno della fissione dell'uranio, notarono che l'uranio decade da solo senza alcuna influenza esterna. Dei 10 milioni di raggi alfa emessi dall'uranio, solo 6 corrispondono a frammenti del suo decadimento. È stato possibile notare queste 0 particelle tra 10 milioni di altre solo con una grande osservazione e una straordinaria arte sperimentale.

    Due giovani fisici crearono un'apparecchiatura 40 volte più sensibile di qualsiasi altra cosa finora conosciuta, e allo stesso tempo così precisa da poter assegnare con sicurezza un valore reale a questi 6 punti su 10 milioni. Poi in sequenza E Controllarono sistematicamente le loro conclusioni e stabilirono fermamente il nuovo fenomeno del decadimento spontaneo dell'uranio.

    Questo lavoro è notevole non solo per i suoi risultati, per la sua perseveranza, ma per la sottigliezza dell'esperimento, ma per l'ingegnosità degli autori. Considerando che uno di loro ha 27 anni e l'altro 32, allora da loro puoi aspettarti molto. Questo lavoro è stato presentato per il Premio Stalin.

    Il fenomeno scoperto da Flerov e Pietrzak dimostra che l'elemento 92 è instabile. È vero, ci vorranno 1010 anni perché la metà di tutti i nuclei di uranio disponibili collassi. Ma diventa chiaro perché la tavola periodica termina con questo elemento.

    Gli elementi più pesanti saranno ancora più instabili. Vengono distrutti più velocemente e quindi non ci sono sopravvissuti. Che sia così è stato ancora una volta confermato dall’esperienza diretta. Possiamo produrre 93 - th e l'elemento 94, ma vivono vite molto brevi, meno di 1000 anni.*

    Pertanto, come potete vedere, questo lavoro è di fondamentale importanza. Non solo è stato scoperto un fatto nuovo, ma è stato chiarito uno dei misteri della tavola periodica.

    Lo studio del nucleo atomico ha aperto prospettive per l'utilizzo delle riserve intraatomiche, ma finora non ha dato nulla di reale alla tecnologia. Sembra così. Ma in realtà tutta l’energia che usiamo nella tecnologia è tutta energia nucleare. Infatti, da dove prendiamo l'energia dal carbone, dal petrolio, da dove prendono l'energia le centrali idroelettriche?

    Sapete bene che l'energia dei raggi solari, assorbita dalle foglie verdi delle piante, viene immagazzinata sotto forma di carbone, i raggi del sole, facendo evaporare l'acqua, la sollevano e la riversano sotto forma di pioggia in quota, nei sotto forma di fiumi di montagna forniscono energia alle centrali idroelettriche.

    Tutti i tipi di energia che utilizziamo provengono dal sole. Il Sole emette un'enorme quantità di energia non solo verso la Terra, ma in tutte le direzioni, e abbiamo motivo di pensare che il Sole esista da centinaia di miliardi di anni. Se calcoli quanta energia è stata emessa durante questo periodo, sorge la domanda: da dove viene questa energia, dov'è la sua fonte?

    Tutto ciò che potevamo escogitare prima si è rivelato insufficiente e solo ora sembra che abbiamo ottenuto la risposta giusta. La fonte di energia non solo del Sole, ma anche di altre stelle (il nostro Sole non è diverso dalle altre stelle a questo riguardo) sono le reazioni nucleari. Al centro della stella, grazie alla forza di gravità, c'è una pressione colossale e una temperatura molto elevata: 20 milioni di gradi. In tali condizioni, i nuclei degli atomi spesso entrano in collisione tra loro e durante queste collisioni si verificano reazioni nucleari, un esempio delle quali è il bombardamento del litio con protoni.

    Un nucleo di idrogeno si scontra con un nucleo di carbonio di peso atomico 12, producendo azoto 13, che si trasforma in carbonio 13, emettendo un positrone positivo. Quindi il nuovo carbonio 13 si scontra con un altro nucleo di idrogeno e così via. Ciò che si ottiene è lo stesso carbonio 12 che ha dato inizio a tutto. Il carbonio qui è passato solo attraverso diverse fasi e ha partecipato solo come catalizzatore. Ma invece di 4 nuclei di idrogeno, alla fine della reazione apparvero un nuovo nucleo di elio e due cariche positive aggiuntive.

    All'interno di tutte le stelle, attraverso tali reazioni, le riserve disponibili di idrogeno vengono convertite in elio, e qui i nuclei diventano più complessi. Dai nuclei di idrogeno più semplici si forma l'elemento successivo: l'elio. La quantità di energia rilasciata in questo caso, come mostrano i calcoli, corrisponde esattamente all'energia emessa dalla stella. Ecco perché le stelle non si raffreddano. Naturalmente riforniscono costantemente la loro riserva di energia, finché c'è una fornitura di idrogeno.

    Nel decadimento dell'uranio si tratta del collasso di nuclei pesanti e della loro trasformazione in nuclei molto più leggeri.

    Nel ciclo dei fenomeni naturali vediamo quindi due collegamenti estremi: i più pesanti si disgregano, i più leggeri si uniscono, ovviamente, in condizioni completamente diverse.

    Qui abbiamo fatto il primo passo verso il problema dell'evoluzione degli elementi.

    Vedete che invece della morte termica, predetta dalla fisica del secolo scorso, prevista, come fece notare Engels, senza fondamenti sufficienti, basandosi solo sulle leggi dei fenomeni termici, dopo 80 anni sono emersi processi molto più potenti che indicano noi una sorta di ciclo energetico in natura, al fatto che in alcuni punti c'è una complicazione e in altri luoghi il decadimento della materia.

    Passiamo ora dal nucleo atomico al suo guscio, e poi ai grandi corpi costituiti da un numero enorme di atomi.

    Quando appresero per la prima volta che un atomo è costituito da un nucleo di p elettroni, gli elettroni sembravano la più elementare e semplice di tutte le formazioni. Si trattava di cariche elettriche negative, di cui si conoscevano la massa e la carica quantità di materia, ma la quantità di energia che la sostanza possiede.

    Quindi conoscevamo la carica dell'elettrone, ne conoscevamo la massa, e poiché non ne sapevamo nient'altro, sembrava che non ci fosse altro da sapere. Per attribuirgli una forma distribuita, cubica, allungata o piatta, era necessario avere delle ragioni, ma non ce n'erano. Pertanto, è stata considerata una palla che misurava 2 x 10 "" 2 cm. Non era chiaro come fosse posizionata questa carica: sulla superficie della palla o riempiendo il suo volume?

    Quando ci avvicinammo effettivamente agli elettroni nell'atomo e cominciammo a studiarne le proprietà, questa apparente semplicità cominciò a scomparire.

    Abbiamo tutti letto il meraviglioso libro di Lenin “Materialismo ed empiriocriticismo”, scritto nel 1908, cioè in un'epoca in cui gli elettroni sembravano essere le cariche elementari più semplici e indivisibili. Quindi Lenin sottolineò che l'elettrone non può essere l'ultimo elemento nella nostra conoscenza della natura, che nell'elettrone, nel tempo, si aprirà una nuova varietà, a noi sconosciuta anche allora. Questa previsione, come tutte le altre previsioni fatte da V.I. Lenin in questo meraviglioso libro è già stato giustificato. L'elettrone ha un momento magnetico. Si è scoperto che l'elettrone non è solo una carica, ma anche un magnete. Si è scoperto che possiede anche un momento di rotazione, il cosiddetto spin. Inoltre, si è scoperto che sebbene l'elettrone si muova attorno al nucleo, come i pianeti attorno al Sole, ma, a differenza dei pianeti, può muoversi solo lungo orbite quantistiche ben definite, può avere energie ben definite e nessuna intermedia.

    Ciò si è rivelato essere il risultato del fatto che il movimento stesso degli elettroni in un atomo ricorda molto vagamente il movimento di una palla nella sua orbita. Le leggi del movimento degli elettroni sono più vicine alle leggi della propagazione delle onde, come le onde luminose.

    Si scopre che il movimento degli elettroni obbedisce alle leggi del moto ondoso, che costituiscono il contenuto della meccanica ondulatoria. Copre non solo il movimento degli elettroni, ma anche tutti i tipi di particelle abbastanza piccole.

    Abbiamo già visto che un elettrone con una piccola massa può trasformarsi in un mesone con una massa 200 volte maggiore e, al contrario, il mesone decade e appare un elettrone con una massa 200 volte inferiore. Vedi che la semplicità dell'elettrone è scomparsa.

    Se un elettrone può trovarsi in due stati: con bassa e alta energia, allora non è un corpo così semplice. Di conseguenza, la semplicità dell’elettrone nel 1908 era una semplicità apparente, che rifletteva l’incompletezza della nostra conoscenza. Questo è interessante come uno degli esempi della brillante lungimiranza della corretta filosofia scientifica espressa da un maestro così straordinario che padroneggiava il metodo dialettico come Lenin.

    Ma le leggi del movimento degli elettroni in un atomo grande 100 milionesimi di centimetro hanno un significato pratico?

    L'ottica elettronica sviluppata negli ultimi anni risponde a questo. Poiché il movimento di un elettrone avviene secondo le leggi di propagazione delle onde luminose, i flussi di elettroni dovrebbero propagarsi all'incirca allo stesso modo dei raggi luminosi. In effetti, tali proprietà sono state scoperte negli elettrodi.

    Su questa strada negli ultimi anni è stato possibile risolvere un problema pratico molto importante: creare un microscopio elettronico. Il microscopio ottico ha dato all'uomo un risultato di enorme importanza. Basti ricordare che l'intero insegnamento sui microbi e sulle malattie che causano, tutti i metodi del loro trattamento si basano su quei fatti che possono essere osservati al microscopio. Negli ultimi anni sono emerse diverse ragioni per ritenere che il mondo organico non sia limitato ai microbi, ma che esistano alcune formazioni viventi le cui dimensioni sono molto più piccole dei microbi. Ed è qui che ci siamo imbattuti in un ostacolo apparentemente insormontabile.

    Un microscopio utilizza le onde luminose. Con l'aiuto delle onde luminose, indipendentemente dal sistema di lenti utilizzato, è impossibile studiare oggetti molte volte più piccoli dell'onda luminosa.

    La lunghezza d'onda della luce è un valore molto piccolo, misurato in decimi di micron. Un micron è un millesimo di millimetro. Ciò significa che in un buon microscopio si possono vedere valori di 0,0002 - 0,0003 mm, ma non si possono vedere nemmeno valori più piccoli. Il microscopio qui è inutile, ma solo perché non sappiamo come fare dei buoni microscopi, ma perché tale è la natura della luce.

    Qual è la soluzione migliore? È necessaria la luce con una lunghezza d'onda più corta. Più corta è la lunghezza d'onda, più piccoli sono gli oggetti che possiamo vedere. Numerosi motivi ci hanno fatto pensare che esistano piccoli organismi inaccessibili al microscopio e tuttavia di grande importanza nel mondo vegetale e animale, causando numerose malattie. Questi sono i cosiddetti virus, filtrabili e non filtrabili. Non sono stati rilevati dalle onde luminose.

    I flussi di elettroni assomigliano alle onde luminose. Possono essere concentrati allo stesso modo, come i raggi luminosi, e creare una completa parvenza di ottica. Si chiama ottica elettronica. In particolare è possibile realizzare anche un microscopio elettronico, cioè lo stesso dispositivo che creerà un'immagine altamente ingrandita di piccoli oggetti utilizzando gli elettroni. Il ruolo degli occhiali sarà svolto dai campi elettrici e magnetici, che agiscono sul movimento degli elettroni, come una lente sui raggi luminosi. Ma la lunghezza delle onde elettroniche è 100 volte più corta di quella delle onde luminose, e quindi con l'aiuto di un microscopio elettronico puoi vedere corpi 100 volte più piccoli, non 10 millesimi di millimetro, ma un milionesimo di millimetro e un milionesimo di un millimetro ha già le dimensioni di grandi molecole.

    La seconda differenza è che vediamo la luce con i nostri occhi, ma non possiamo vedere un elettrone. Ma questo non è un grosso difetto. Se non vediamo gli elettroni, allora si possono vedere chiaramente i punti in cui cadono. Fanno illuminare lo schermo o annerire la lastra fotografica e possiamo studiare una fotografia dell'oggetto. È stato costruito un microscopio elettronico e abbiamo ottenuto un microscopio con un ingrandimento non di 2000-3000, ma di 150-200mila volte, contrassegnando oggetti 100 volte più piccoli di quelli accessibili al microscopio ottico. I virus si sono subito trasformati da ipotesi in fatto. Puoi studiare il loro comportamento. Puoi persino vedere il contorno di molecole complesse. Pertanto, abbiamo ricevuto un nuovo potente strumento per studiare la natura.

    È noto quanto enorme sia stato il ruolo del microscopio in biologia, chimica e medicina. La comparsa di una nuova arma forse causerà un passo avanti ancora più significativo e ci aprirà nuove aree precedentemente sconosciute. È difficile prevedere cosa verrà scoperto in questo mondo di milionesimi di millimetro, ma si può pensare che questa sia una nuova fase nelle scienze naturali, nell'ingegneria elettrica e in molti altri campi della conoscenza.

    Come puoi vedere, dalle domande sulla teoria ondulatoria della materia con le sue strane e insolite disposizioni, siamo passati rapidamente a risultati reali e praticamente importanti.

    L'ottica elettronica viene utilizzata non solo per creare un nuovo tipo di microscopio. Il suo valore sta crescendo molto rapidamente. Mi limiterò però a considerare solo un esempio della sua applicazione.

    Poiché sto parlando dei problemi più moderni della fisica, non esporrò la teoria dell'atomo, che fu completata nel 1930: è piuttosto un problema di ieri.

    Ora siamo interessati a come gli atomi si combinano per formare corpi fisici che possono essere pesati su una bilancia, si può sentire il loro calore, dimensione o durezza e con cui abbiamo a che fare nella vita, nella tecnologia, ecc.

    Come si manifestano le proprietà degli atomi nei solidi? Prima di tutto, si scopre che le leggi quantistiche scoperte nei singoli atomi mantengono la loro piena applicabilità a interi corpi. Sia nei singoli atomi che nell'intero corpo, gli elettroni occupano solo posizioni ben definite e hanno solo energie determinate e ben definite.

    Un elettrone in un atomo può trovarsi solo in un certo stato di movimento e, inoltre, in ciascuno di questi stati può esserci un solo elettrone. In un atomo non possono esserci due elettroni che si trovano negli stessi stati. Questa è anche una delle disposizioni principali della teoria dell'atomo.

    Quindi, quando gli atomi si combinano in grandi quantità, formando un corpo solido - un cristallo, allora in corpi così grandi non possono esserci due elettroni che occuperebbero lo stesso stato.

    Se il numero di stati a disposizione degli elettroni è esattamente uguale al numero di elettroni, allora ogni stato è occupato da un elettrone e non rimangono stati liberi. In un tale corpo, gli elettroni sono legati. Affinché inizino a muoversi in una certa direzione, creando un flusso di elettricità, o corrente elettrica, in modo che, in altre parole, il corpo conduca corrente elettrica, è necessario che gli elettroni cambino il loro stato. Prima si spostavano a destra, ma ora devono spostarsi, ad esempio, a sinistra; Sotto l'influenza delle forze elettriche, l'energia deve aumentare. Di conseguenza, lo stato di movimento dell'elettrone deve cambiare, e per questo è necessario passare ad un altro stato, diverso dal precedente, ma ciò è impossibile, poiché tutti gli stati sono già occupati. Tali corpi non presentano alcuna proprietà elettrica. Si tratta di isolanti nei quali non può circolare corrente nonostante la quantità colossale di elettroni.

    Prendiamo un altro caso. Il numero di posti liberi è molto maggiore del numero di elettroni che vi si trovano. Allora gli elettroni sono liberi. Gli elettroni in un tale corpo, sebbene non ce ne siano più che in un isolante, possono cambiare il loro stato, muoversi liberamente verso destra o sinistra, aumentare o diminuire la loro energia, ecc. Tali corpi sono metalli.

    Pertanto, otteniamo una definizione molto semplice di quali corpi conducono corrente elettrica e quali sono isolanti. Questa differenza copre tutte le proprietà fisiche e fisico-chimiche di un solido.

    In un metallo l'energia degli elettroni liberi prevale sull'energia termica dei suoi atomi. Gli elettroni tendono ad andare nello stato con l'energia più bassa possibile. Questo determina tutte le proprietà del metallo.

    La formazione di composti chimici, ad esempio vapore acqueo da idrogeno e ossigeno, avviene in rapporti rigorosamente definiti, determinati dalla valenza: un atomo di ossigeno si combina con due atomi di idrogeno, due valenze di un atomo di ossigeno sono saturate con due valenze di due atomi di idrogeno.

    Ma nel metallo la situazione è diversa. Le leghe di due metalli formano composti non quando le loro quantità sono in relazione alla loro valenza, ma quando, ad esempio, quando il rapporto tra il numero di elettroni in un dato metallo e il numero di atomi in questo metallo è 21:13. Non c'è niente come la valenza in questi composti; i composti si formano quando gli elettroni ricevono la minima energia, così che i composti chimici nei metalli sono determinati in misura molto maggiore dallo stato degli elettroni che dalle forze di valenza degli atomi. Allo stesso modo, lo stato degli elettroni determina tutte le proprietà elastiche, la resistenza e l'ottica del metallo.

    Oltre a due casi estremi: i metalli, i cui elettroni sono tutti liberi, e gli isolanti, in cui tutti gli stati sono pieni di elettroni e non si osserva alcun cambiamento nella loro distribuzione, esiste anche un'enorme varietà di corpi che non conducono corrente elettrica così come un metallo, ma anche no non lo realizzano completamente. Questi sono semiconduttori.

    I semiconduttori costituiscono un campo di sostanze molto ampio e diversificato. Tutta la parte inorganica della natura che ci circonda, tutti i minerali, tutti questi sono semiconduttori.

    Come è potuto accadere che tutta questa vasta area della conoscenza non sia stata ancora studiata da nessuno? Sono passati solo 10 anni da quando abbiamo iniziato a lavorare sui semiconduttori. Perché? Perché, soprattutto, non avevano alcuna applicazione tecnologica. Ma circa 10 anni fa, i semiconduttori sono entrati per la prima volta nell'ingegneria elettrica e da allora hanno cominciato a essere utilizzati con straordinaria velocità nei più svariati settori dell'ingegneria elettrica.

    La comprensione dei semiconduttori è interamente basata sulla stessa teoria quantistica che si è rivelata così fruttuosa nello studio del singolo atomo.

    Permettetemi di attirare la vostra attenzione su un lato interessante di questi materiali. In precedenza, in questa forma veniva rappresentato un corpo solido. Gli atomi sono combinati in un unico sistema, non sono collegati a casaccio, ma ogni atomo è combinato con un atomo vicino in tali posizioni, a tali distanze, alle quali la loro energia sarebbe minima.

    Se questo è vero per un atomo, allora è vero anche per tutti gli altri. Pertanto, l'intero corpo nel suo insieme ripete ripetutamente le stesse disposizioni di atomi a una distanza strettamente definita l'uno dall'altro, in modo da ottenere un reticolo di atomi posizionati regolarmente. Il risultato è un cristallo con bordi ben definiti e angoli definiti tra i bordi. Questa è una manifestazione dell'ordine interno nella disposizione dei singoli atomi.

    Tuttavia, questa immagine è solo approssimativa. In effetti, il movimento termico e le reali condizioni di crescita dei cristalli portano al fatto che i singoli atomi vengono strappati dai loro luoghi in altri luoghi, alcuni atomi escono e vengono rimossi nell'ambiente. Si tratta di disturbi isolati in luoghi isolati, ma che portano a risultati importanti.

    Si scopre che è sufficiente aumentare la quantità di ossigeno contenuta nell'ossido rameoso o ridurre la quantità di rame dell'1%, in modo che la conduttività elettrica aumenti di un milione di volte e tutte le altre proprietà cambino radicalmente. Pertanto, piccoli cambiamenti nella struttura di una sostanza comportano enormi cambiamenti nelle sue proprietà.

    Naturalmente, dopo aver studiato questo fenomeno, possiamo usarlo per cambiare consapevolmente i semiconduttori nella direzione che desideriamo, per modificare la loro conduttività elettrica, proprietà termiche, magnetiche e altre come necessario per risolvere un determinato problema.

    Basandoci sulla teoria quantistica e imparando dall'esperienza del nostro laboratorio e degli impianti di produzione, stiamo cercando di risolvere problemi tecnici associati ai semiconduttori.

    Nella tecnologia, i semiconduttori sono stati utilizzati per la prima volta nei raddrizzatori CA. Se una piastra di rame viene ossidata ad alta temperatura, creando su di essa ossido di rame, tale piastra ha proprietà molto interessanti. Quando la corrente passa in una direzione, la sua resistenza è piccola e si ottiene una corrente significativa. Quando la corrente passa nella direzione opposta, crea un'enorme resistenza e la corrente nella direzione opposta risulta trascurabile.

    Questa proprietà fu sfruttata dall'ingegnere americano Grondahl per “rettificare” la corrente alternata. La corrente alternata cambia direzione 100 volte al secondo; Se si posiziona una piastra di questo tipo sul percorso della corrente, la corrente evidente scorre in una sola direzione. Questo è ciò che chiamiamo rettifica corrente.

    In Germania si cominciarono ad utilizzare a questo scopo lastre di ferro rivestite di selenio. Sono stati qui riprodotti i risultati ottenuti in America e in Germania; è stata sviluppata una tecnologia per la produzione in fabbrica di tutti i raddrizzatori utilizzati dall'industria americana e tedesca. Ma, ovviamente, questo non era il compito principale. Era necessario, sfruttando la nostra conoscenza dei semiconduttori, provare a creare raddrizzatori migliori.

    In una certa misura ci siamo riusciti. B.V. Kurcatov e Yu.A. Dunaev è riuscito a creare un nuovo raddrizzatore che va molto oltre ciò che è noto nella tecnologia straniera. Un raddrizzatore all'ossido di rame, che è una piastra larga circa 80 mm e lunga 200 mm, rettifica correnti dell'ordine di 10-15 A.

    Il rame è un materiale costoso e raro, ma i raddrizzatori richiedono molte, molte tonnellate di rame.

    Il raddrizzatore Kurchatov è una piccola tazza di alluminio nella quale viene versato mezzo grammo di solfuro di rame e che viene chiusa con un tappo metallico con isolamento in mica. È tutto. Un tale raddrizzatore non ha bisogno di essere riscaldato nei forni e rettifica correnti dell'ordine di 60 A. Leggerezza, praticità e basso costo gli conferiscono un vantaggio rispetto ai tipi esistenti all'estero.

    Nel 1932, Lange in Germania notò che lo stesso ossido di rame ha la proprietà di creare una corrente elettrica quando illuminato. Questa è una fotocellula solida. A differenza di altri, crea corrente senza batterie. Pertanto, riceviamo energia elettrica dalla luce, una macchina fotoelettrica, ma la quantità di elettricità ricevuta è molto piccola. In queste celle solari, solo lo 0,01-0,02% dell'energia luminosa viene convertito in energia elettrica, ma Lange ha comunque costruito un piccolo motore che ruota quando esposto al sole.

    Alcuni anni dopo, in Germania fu prodotta una fotocellula al selenio, che produce circa 3-4 volte più corrente di una cella all'ossido rameoso e la cui efficienza raggiunge lo 0,1%.

    Abbiamo provato a costruire una fotocellula ancora più avanzata, cosa che B.T. Kolomiets e Yu.P. Maslakovets. La loro fotocellula produce una corrente 60 volte superiore a quella dell'ossido rameoso e 15-20 volte superiore a quella del selenio. È anche interessante perché produce corrente da raggi infrarossi invisibili. La sua sensibilità è talmente elevata che si è rivelato conveniente utilizzarla per il cinema sonoro al posto delle tipologie di fotocellule finora utilizzate.

    Le celle solari esistenti hanno una batteria che crea corrente anche senza illuminazione; Ciò provoca frequenti crepitii e rumori nell'altoparlante, rovinando la qualità del suono. La nostra fotocellula non necessita di alcuna batteria; la forza elettromotrice è creata dall'illuminazione; Se non c'è luce, la corrente non può provenire da nessuna parte. Pertanto, le installazioni sonore alimentate da queste fotocellule producono un suono chiaro. L'installazione è conveniente anche in altri modi. Poiché non è presente la batteria, non è necessario collegare i cavi, vengono eliminati numerosi dispositivi aggiuntivi, una cascata di amplificazione fotografica, ecc.

    A quanto pare queste fotocellule offrono alcuni vantaggi per il cinema. Per circa un anno, un'installazione del genere è stata operativa in un teatro dimostrativo presso la Casa del cinema di Leningrado, e ora, in seguito, i principali cinema sulla Prospettiva Nevskij - "Titan", "Ottobre", "Aurora" stanno passando a questi fotocellule.

    A questi due esempi ne aggiungo un terzo, non ancora del tutto concluso, ovvero l'uso di semiconduttori per termoelementi.

    Utilizziamo le termocoppie da molto tempo. Sono realizzati in metalli per misurare la temperatura e l'energia radiante di corpi luminosi o riscaldati; ma solitamente le correnti provenienti da questi termoelementi sono estremamente deboli, si misurano con galvanometri. I semiconduttori producono una fem molto più elevata rispetto ai metalli comuni e rappresentano quindi vantaggi speciali per i termoelementi che sono lungi dall'essere utilizzati.

    Ora stiamo provando a utilizzare i semiconduttori che stiamo studiando per i termoelementi e abbiamo ottenuto un certo successo. Se riscaldiamo un lato della piastrina che abbiamo realizzato di 300-400° si ottiene una corrente di circa 50 A ed una tensione di circa 0,1 V.

    È noto da tempo che dai termoelementi si possono ottenere correnti elevate, ma rispetto a quanto è stato realizzato in questa direzione all'estero, in Germania, ad esempio, i nostri semiconduttori forniscono molto di più.

    L'importanza tecnica dei semiconduttori non si limita a questi tre esempi. I semiconduttori sono i principali materiali su cui sono costruiti l'automazione, i sistemi di allarme, il telecontrollo, ecc. Insieme alla crescita dell’automazione cresce anche la varietà delle applicazioni dei semiconduttori. Tuttavia, da questi tre esempi, mi sembra che si possa vedere che lo sviluppo della teoria risulta essere estremamente favorevole per la pratica.

    Ma la teoria ha ricevuto uno sviluppo così significativo solo perché l'abbiamo sviluppata sulla base della risoluzione di problemi pratici, al passo con le fabbriche. L'enorme scala della produzione tecnica, i bisogni urgenti che la produzione propone, stimolano estremamente il lavoro teorico, costringendoci a uscire dalle difficoltà a tutti i costi e risolvere problemi che probabilmente sarebbero stati abbandonati senza di essa.

    Se non abbiamo davanti un problema tecnico, noi, studiando il fenomeno fisico che ci interessa, cerchiamo di capirlo, testando le nostre idee con esperimenti di laboratorio; allo stesso tempo, a volte è possibile trovare le giuste soluzioni e accertarsi che siano corrette. Quindi stampiamo il lavoro scientifico, considerando il nostro compito completato. Se? Ogni volta che una teoria non è giustificata o vengono scoperti nuovi fenomeni che non si adattano ad essa, cerchiamo di sviluppare e modificare la teoria. Non è sempre possibile coprire l’intera gamma del materiale sperimentale. Quindi consideriamo il lavoro un fallimento e non pubblichiamo la nostra ricerca. Spesso, però, in questi fenomeni che non comprendiamo si nasconde qualcosa di nuovo che non rientra nella teoria, che richiede di abbandonarla e sostituirla con un approccio completamente diverso alla questione e una teoria diversa.

    La produzione di massa non tollera difetti. L'errore influenzerà immediatamente la comparsa di capricci nella produzione. Finché non si comprendono alcuni aspetti della questione, il prodotto tecnico non è valido e non può essere rilasciato. Dobbiamo scoprire tutto ad ogni costo e coprire quei processi che non sono stati ancora spiegati nella teoria fisica. Non possiamo fermarci finché non troviamo una spiegazione, e solo allora avremo una teoria completa e molto più profonda.

    Per l’unione della teoria e della pratica, per il fiorire della scienza, da nessuna parte esistono condizioni così favorevoli come nel primo paese del socialismo.