04.03.2024

Incertidumbre constante. El principio de incertidumbre de Heisenberg en mecánica cuántica. Expresión de la cantidad finita disponible de información de Fisher.


El principio de incertidumbre es una ley fundamental del micromundo. Puede considerarse una expresión particular del principio de complementariedad.

En la mecánica clásica, una partícula se mueve a lo largo de una determinada trayectoria y en cualquier momento es posible determinar con precisión sus coordenadas y su impulso. En cuanto a las micropartículas, esta idea es incorrecta. Una micropartícula no tiene una trayectoria claramente definida; tiene tanto las propiedades de una partícula como las de una onda (dualidad onda-partícula). En este caso, el concepto de "longitud de onda en un punto dado" no tiene significado físico, y dado que el impulso de una micropartícula se expresa a través de la longitud de onda - pag=A/ l, entonces se deduce que una micropartícula con cierto impulso tiene una coordenada completamente incierta, y viceversa.

W. Heisenberg (1927), teniendo en cuenta la naturaleza dual de las micropartículas, llegó a la conclusión de que es imposible caracterizar simultáneamente una micropartícula tanto con coordenadas como con impulso con una precisión predeterminada.

Las siguientes desigualdades se denominan relaciones de incertidumbre de Heisenberg:

Δx Δ pag X ≥h,Δ yΔp y ≥h,Δ zΔp z h.

Aquí Δx, Δy, Δz significan intervalos de coordenadas en los que se puede localizar una micropartícula (estos intervalos son incertidumbres de coordenadas), Δ pag X , Δ pag y , Δ pag z significan los intervalos de proyecciones de pulsos sobre los ejes de coordenadas x, y, z, h- Constante de Planck. Según el principio de incertidumbre, cuanto más exactamente se registre el impulso, mayor será la incertidumbre en la coordenada y viceversa.

Principio de correspondencia

A medida que la ciencia se desarrolla y el conocimiento acumulado se profundiza, las nuevas teorías se vuelven más precisas. Las nuevas teorías cubren horizontes cada vez más amplios del mundo material y penetran en profundidades antes inexploradas. Las teorías dinámicas son reemplazadas por otras estáticas.

Cada teoría fundamental tiene ciertos límites de aplicabilidad. Por tanto, el surgimiento de una nueva teoría no significa una negación total de la antigua. Así, el movimiento de los cuerpos en el macrocosmos con velocidades significativamente inferiores a la velocidad de la luz siempre estará descrito por la mecánica clásica de Newton. Sin embargo, a velocidades comparables a la velocidad de la luz (velocidades relativistas), la mecánica newtoniana no es aplicable.

Objetivamente, hay continuidad de las teorías físicas fundamentales. Este es el principio de correspondencia, que se puede formular de la siguiente manera: ninguna nueva teoría puede ser válida a menos que contenga como caso límite la vieja teoría relacionada con los mismos fenómenos, puesto que la vieja teoría ya ha demostrado su eficacia en su campo.

3.4. El concepto del estado del sistema. Determinismo laplaceano

En física clásica, se entiende por sistema el conjunto de algunas partes conectadas entre sí de una determinada manera. Estas partes (elementos) del sistema pueden influirse entre sí y se supone que su interacción siempre puede evaluarse desde el punto de vista de las relaciones de causa y efecto entre los elementos que interactúan del sistema.

La doctrina filosófica de la objetividad de la relación natural y la interdependencia de los fenómenos del mundo material y espiritual se llama determinismo. El concepto central del determinismo es la existencia. causalidad; La causalidad ocurre cuando un fenómeno da lugar a otro fenómeno (efecto).

La física clásica se basa en la posición de un determinismo rígido, que se llama laplaceiano: fue Pierre Simon Laplace quien proclamó el principio de causalidad como ley fundamental de la naturaleza. Laplace creía que si se conoce la ubicación de los elementos (algunos cuerpos) de un sistema y las fuerzas que actúan en él, entonces es posible predecir con total certeza cómo se moverá cada cuerpo de este sistema ahora y en el futuro. Escribió: “Debemos considerar el estado actual del Universo como consecuencia del estado anterior y como causa del estado posterior. Una mente que en un momento dado conociera todas las fuerzas que actúan en la naturaleza y las posiciones relativas de todas sus entidades constituyentes, si fuera todavía lo suficientemente amplia como para tener en cuenta todos estos datos, abarcaría en una misma fórmula los movimientos. de los cuerpos más grandes del Universo y los átomos más ligeros. Nada sería incierto para él y el futuro, como el pasado, estaría ante sus ojos”. Tradicionalmente, esta criatura hipotética, que podría (según Laplace) predecir el desarrollo del Universo, se llama científicamente "el demonio de Laplace".

En el período clásico del desarrollo de las ciencias naturales, se afirmó la idea de que sólo las leyes dinámicas caracterizan plenamente la causalidad en la naturaleza.

Laplace intentó explicar el mundo entero, incluidos los fenómenos fisiológicos, psicológicos y sociales, desde el punto de vista del determinismo mecanicista, que consideraba un principio metodológico para construir cualquier ciencia. Laplace vio un ejemplo de forma de conocimiento científico en la mecánica celeste. Así, el determinismo laplaceano niega la naturaleza objetiva del azar, el concepto de probabilidad de un evento.

Un mayor desarrollo de las ciencias naturales condujo a nuevas ideas sobre causa y efecto. Para algunos procesos naturales, es difícil determinar la causa; por ejemplo, la desintegración radiactiva ocurre al azar. Es imposible relacionar inequívocamente el momento de "salida" de una partícula α o β del núcleo y el valor de su energía. Estos procesos son objetivamente aleatorios. Especialmente hay muchos ejemplos de este tipo en biología. En las ciencias naturales modernas, el determinismo moderno ofrece diversas formas objetivamente existentes de interconexión de procesos y fenómenos, muchas de las cuales se expresan en forma de relaciones que no tienen conexiones causales pronunciadas, es decir, no contienen momentos de generación de uno por otro. Se trata de conexiones espacio-temporales, relaciones de simetría y determinadas dependencias funcionales, relaciones probabilísticas, etc. Sin embargo, todas las formas de interacciones reales de los fenómenos se forman sobre la base de una causalidad activa universal, fuera de la cual no existe ni un solo fenómeno de la realidad. incluidos los llamados fenómenos aleatorios, en cuyo conjunto se manifiestan leyes estáticas.

La ciencia continúa desarrollándose y se enriquece con nuevos conceptos, leyes y principios, lo que indica las limitaciones del determinismo laplaceano. Sin embargo, la física clásica, en particular la mecánica clásica, todavía tiene su nicho de aplicación en la actualidad. Sus leyes son bastante aplicables para movimientos relativamente lentos, cuya velocidad es significativamente menor que la velocidad de la luz. La importancia de la física clásica en el período moderno fue bien definida por uno de los creadores de la mecánica cuántica, Niels Bohr: “No importa hasta qué punto los fenómenos vayan más allá de la explicación física clásica, todos los datos experimentales deben describirse utilizando conceptos clásicos. El motivo de esto es simplemente establecer el significado preciso de la palabra "experimento". Con la palabra "experimento" indicamos una situación en la que podemos decirles a los demás exactamente lo que hemos hecho y qué hemos aprendido exactamente. Por lo tanto, la configuración experimental y los resultados observacionales deben describirse sin ambigüedades en el lenguaje de la física clásica”.

PRINCIPIO DE INCERTIDUMBRE:

El principio de incertidumbre – una posición fundamental de la teoría cuántica, que afirma que cualquier sistema físico no puede encontrarse en estados en los que las coordenadas de su centro de inercia y de su momento tomen simultáneamente valores exactos y bien definidos. Cuantitativamente, el principio de incertidumbre se formula de la siguiente manera. Si ∆x es la incertidumbre en el valor de la coordenada x del centro de inercia del sistema, y ​​∆p x es la incertidumbre en la proyección del momento p sobre el eje x, entonces el producto de estas incertidumbres debe ser en orden de magnitud no menor que la constante ħ de Planck. Se deben satisfacer desigualdades similares para cualquier par de los llamados variables conjugadas canónicamente, por ejemplo, para la coordenada y y la proyección del impulso p y en el eje y, la coordenada z y la proyección del impulso p z. Si por incertidumbres de posición y momento nos referimos a las desviaciones cuadráticas medias de estas cantidades físicas de sus valores promedio, entonces el principio de incertidumbre para ellas tiene la forma:

∆p x ∆x ≥ ħ/2, ∆p y ∆y ≥ ħ/2, ∆p z ∆z ≥ ħ/2

Debido a la pequeñez de ħ en comparación con cantidades macroscópicas de la misma dimensión, la acción del principio de incertidumbre es significativa principalmente para fenómenos de escalas atómicas (y más pequeñas) y no aparece en experimentos con cuerpos macroscópicos.

Del principio de incertidumbre se deduce que cuanto más precisamente se define una de las cantidades incluidas en la desigualdad, menos seguro será el valor de la otra. Ningún experimento puede medir simultáneamente con precisión tales variables dinámicas; Además, la incertidumbre en las mediciones no está asociada con la imperfección de la tecnología experimental, sino con las propiedades objetivas de la materia.

El principio de incertidumbre, descubierto en 1927 por el físico alemán W. Heisenberg, fue un paso importante para dilucidar las leyes de los fenómenos intraatómicos y construir la mecánica cuántica. Una característica esencial de los objetos microscópicos es su naturaleza de ondas de partículas. El estado de una partícula está completamente determinado por la función de onda (una cantidad que describe completamente el estado de un microobjeto (electrón, protón, átomo, molécula) y, en general, de cualquier sistema cuántico). Una partícula se puede detectar en cualquier punto del espacio en el que la función de onda sea distinta de cero. Por tanto, los resultados de los experimentos para determinar, por ejemplo, coordenadas son de naturaleza probabilística.

(Ejemplo: el movimiento de un electrón representa la propagación de su propia onda. Si disparas un haz de electrones a través de un agujero estrecho en la pared: el haz estrecho pasará a través de él. Pero si haces este agujero aún más pequeño, de modo que su diámetro es igual a la longitud de onda del electrón, entonces el haz de electrones se dispersará en todas direcciones. Y esto no es una desviación causada por los átomos más cercanos de la pared, que pueden eliminarse: esto ocurre debido a la onda. naturaleza del electrón Intente predecir qué sucederá junto al electrón que ha atravesado la pared y se encontrará impotente en qué punto se cruza con la pared, pero no podrá decir qué impulso en la dirección transversal tendrá. adquirir Por el contrario, para determinar con precisión que el electrón aparecerá con tal o cual cierto impulso en la dirección inicial, es necesario agrandar el agujero para que la onda del electrón pase en línea recta, divergiendo solo ligeramente en todas las direcciones. a la difracción. Pero entonces es imposible decir exactamente por dónde pasó la partícula del electrón a través de la pared: el agujero es ancho. Tanto como se gana en la precisión para determinar el impulso, se pierde en la precisión con la que se conoce su posición.

Este es el principio de incertidumbre de Heisenberg. Desempeñó un papel extremadamente importante en la construcción de un aparato matemático para describir ondas de partículas en átomos. Su interpretación estricta en experimentos con electrones es la siguiente: al igual que las ondas de luz, los electrones resisten cualquier intento de realizar mediciones con extrema precisión. Este principio también cambia la imagen del átomo de Bohr. Es posible determinar exactamente el momento de un electrón (y por tanto su nivel de energía) en algunas de sus órbitas, pero su ubicación será completamente desconocida: nada se puede decir sobre dónde se encuentra. De aquí queda claro que dibujar una órbita clara de un electrón y marcarla en forma de círculo carece de significado).

En consecuencia, al realizar una serie de experimentos idénticos, según la misma definición de coordenadas, en sistemas idénticos, se obtienen resultados diferentes cada vez. Sin embargo, algunos valores serán más probables que otros, lo que significa que aparecerán con más frecuencia. La frecuencia relativa de aparición de ciertos valores de coordenadas es proporcional al cuadrado del módulo de la función de onda en los puntos correspondientes en el espacio. Por lo tanto, la mayoría de las veces los valores de coordenadas obtenidos serán aquellos que se encuentran cerca del máximo de la función de onda. Pero es inevitable cierta dispersión en los valores de las coordenadas, cierta incertidumbre (del orden de la mitad del ancho del máximo). Lo mismo se aplica a la medición de impulsos.

Por tanto, los conceptos de coordenada y momento en el sentido clásico no se pueden aplicar a objetos microscópicos. Cuando se utilizan estas cantidades para describir un sistema microscópico, es necesario introducir correcciones cuánticas en su interpretación. Esta enmienda es el principio de incertidumbre.

El principio de incertidumbre para la energía ε y el tiempo t tiene un significado ligeramente diferente:

∆ε ∆t ≥ ħ

Si el sistema está en un estado estacionario, entonces del principio de incertidumbre se deduce que la energía del sistema, incluso en este estado, sólo puede medirse con una precisión que no exceda ħ/∆t, donde ∆t es la duración del proceso de medición. La razón de esto es la interacción del sistema con el dispositivo de medición, y el principio de incertidumbre aplicado a este caso significa que la energía de interacción entre el dispositivo de medición y el sistema en estudio solo puede tenerse en cuenta con una precisión de ħ/ ∆t.

Influenciado por el éxito de las teorías científicas, especialmente la teoría de la gravitación de Newton, el científico francés Pierre Laplace a principios del siglo XIX. Se desarrolló una visión del Universo como un objeto completamente determinado. Laplace creía que debería haber un conjunto de leyes científicas que permitieran predecir todo lo que puede suceder en el Universo, si tan solo se conociera una descripción completa de su estado en algún momento. Por ejemplo, si conociéramos las posiciones del Sol y de los planetas correspondientes a un momento determinado, entonces, utilizando las leyes de Newton, podríamos calcular en qué estado se encontraría el sistema solar en cualquier otro momento. En este caso, el determinismo es bastante obvio, pero Laplace fue más allá y argumentó que existen leyes similares para todo, incluido el comportamiento humano.

La doctrina del determinismo científico encontró una fuerte resistencia por parte de muchos que sentían que esto limitaba la libre intervención de Dios en nuestro mundo; sin embargo, esta idea siguió siendo una hipótesis científica común desde principios de nuestro siglo. Uno de los primeros indicios de la necesidad de abandonar el determinismo fueron los resultados de los cálculos de dos físicos ingleses, John Rayleigh y James Jeans, de los que se deducía que un objeto caliente como una estrella debería irradiar infinitamente más energía todo el tiempo. Según las leyes entonces conocidas, un cuerpo caliente debería emitir por igual ondas electromagnéticas de todas las frecuencias (por ejemplo, ondas de radio, luz visible, rayos X). Esto significa que se debe emitir la misma cantidad de energía tanto en forma de ondas con frecuencias entre uno y dos millones de millones de ondas por segundo, como en forma de ondas cuyas frecuencias se encuentren en el rango de dos a tres millones de millones de ondas por segundo. . Y como hay infinitas frecuencias diferentes, la energía total irradiada debe ser infinita.

Para deshacerse de esta conclusión aparentemente absurda, el científico alemán Max Planck aceptó en 1900 la hipótesis de que la luz, los rayos X y otras ondas no pueden emitirse con una intensidad arbitraria, sino que deben emitirse sólo en determinadas porciones, que Planck llamó cuantos. Además, Planck sugirió que cada cuanto de radiación transporta una determinada cantidad de energía, que es mayor cuanto mayor es la frecuencia de las ondas. Por lo tanto, a una frecuencia suficientemente alta, la energía de un cuanto puede exceder la cantidad de energía disponible y, en consecuencia, se suprimirá la radiación de alta frecuencia y la velocidad a la que el cuerpo pierde energía será finita.

La hipótesis cuántica concordaba excelentemente con las intensidades de radiación observadas en los cuerpos calientes, pero lo que significaba para el determinismo no quedó claro hasta 1926, cuando otro científico alemán, Werner Heisenberg, formuló el famoso principio de incertidumbre. Para predecir cuál será la posición y velocidad de una partícula, es necesario poder realizar mediciones precisas de su posición y velocidad en el momento actual. Obviamente, para hacer esto, la luz debe dirigirse a la partícula. Parte de las ondas de luz serán dispersadas por él y así determinaremos la posición de la partícula en el espacio. Sin embargo, la precisión de esta medición no será mayor que la distancia entre las crestas de dos ondas adyacentes y, por lo tanto, se necesita luz de longitud de onda corta para medir con precisión la posición de la partícula. Según la hipótesis de Planck, la luz no se puede utilizar en porciones arbitrariamente pequeñas y no existe una porción menor que un cuanto. Este cuanto de luz perturbará el movimiento de la partícula y cambiará impredeciblemente su velocidad. Además, cuanto más exactamente se mida la posición, más cortas deben ser las longitudes de onda de la luz y, por tanto, mayor será la energía de un cuanto. Esto significa que la perturbación de la velocidad de las partículas será mayor. En otras palabras, cuanto más exactamente se intente medir la posición de una partícula, menos precisas serán las mediciones de su velocidad, y viceversa. Heisenberg demostró que la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad y su masa, no puede ser menor que un cierto número, que ahora se llama constante de Planck. Este número no depende ni de la forma en que se mide la posición o la velocidad de la partícula, ni del tipo de esta partícula, es decir, el principio de incertidumbre de Heisenberg es una propiedad fundamental e obligatoria de nuestro mundo.



El principio de incertidumbre tiene consecuencias de gran alcance relacionadas con nuestra percepción del mundo que nos rodea. Incluso después de más de cincuenta años, muchos filósofos no han estado definitivamente de acuerdo con ellas, y estas consecuencias siguen siendo objeto de debate. El principio de incertidumbre significó el fin de los sueños de Laplace de una teoría científica que proporcionaría un modelo completamente determinista del Universo: de hecho, ¿cómo se puede predecir con precisión el futuro sin siquiera poder realizar mediciones precisas del estado del Universo en el presente? ¡momento! Por supuesto, podemos imaginar que existe un cierto conjunto de leyes que determinan completamente los acontecimientos para algún ser sobrenatural que sea capaz de observar el estado actual del Universo sin perturbarlo de ninguna manera. Sin embargo, tales modelos del Universo no nos interesan a nosotros, los simples mortales. Quizás sería mejor utilizar el principio de "economía", que se llama el principio de la "navaja de Occam" (W. Ockham /1285-1349/ - filósofo inglés. La esencia del principio de la "navaja de Occam": los conceptos que no se pueden verificar en la experiencia deben eliminarse de la ciencia (nota del editor) tomar y eliminar todas las disposiciones de la teoría que no sean observables. Adoptando este enfoque, Werner Heisenberg, Erwin Schrödinger y Paul Dirac en los años 20 de nuestro siglo revisaron la mecánica y llegaron a una nueva teoría: la mecánica cuántica, que se basaba en el principio de incertidumbre. En la mecánica cuántica, las partículas ya no tienen características tan definidas y mutuamente independientes como la posición en el espacio y la velocidad, que no son observables. En cambio, se caracterizan por un estado cuántico que es una combinación de posición y velocidad.

La mecánica cuántica, en términos generales, no predice que una observación deba tener un resultado único y definido. En cambio, predice una serie de resultados diferentes y da la probabilidad de cada uno de ellos. Esto significa que si hiciéramos la misma medición para muchos sistemas idénticos, cuyos estados iniciales son los mismos, encontraríamos que en un número de casos el resultado de la medición es igual a A, en otro - B, etc. Se puede predecir en cuántos casos aproximadamente el resultado será igual a A y B, pero es imposible determinar el resultado de cada medición específica. Por tanto, la mecánica cuántica introduce un elemento inevitable de imprevisibilidad o aleatoriedad en la ciencia. Einstein se pronunció muy duramente contra este concepto, a pesar del enorme papel que él mismo jugó en su desarrollo. Por su enorme contribución a la teoría cuántica, Einstein recibió el Premio Nobel. Pero nunca estuvo de acuerdo en que el universo está gobernado por el azar. Todos los sentimientos de Einstein quedaron expresados ​​en su famosa afirmación: "Dios no juega a los dados". Sin embargo, la mayoría de los demás científicos se inclinaban a aceptar la mecánica cuántica porque concordaba perfectamente con el experimento. La mecánica cuántica es de hecho una teoría notable y subyace a casi toda la ciencia y tecnología modernas. Los principios de la mecánica cuántica forman la base para el funcionamiento de semiconductores y circuitos integrados, que son la parte más importante de dispositivos electrónicos como televisores y ordenadores electrónicos. La química y la biología modernas se basan en la mecánica cuántica. Las únicas áreas de la física que aún no hacen un buen uso de la mecánica cuántica son la teoría de la gravedad y la teoría de la estructura a gran escala del Universo.

A pesar de que la radiación luminosa consiste en ondas, según la hipótesis de Planck, la luz en cierto sentido se comporta como si estuviera formada por partículas: la emisión y absorción de luz se produce sólo en forma de porciones o cuantos. El principio de incertidumbre de Heisenberg dice que las partículas, en cierto sentido, se comportan como ondas: no tienen una posición específica en el espacio, sino que están "untadas" sobre él con una determinada distribución de probabilidad. La teoría de la mecánica cuántica utiliza un aparato matemático completamente nuevo, que ya no describe el mundo real basándose en ideas sobre partículas y ondas; Estos conceptos ahora sólo pueden atribuirse a los resultados de las observaciones en este mundo. Así, en la mecánica cuántica surge el dualismo de ondas parciales: en algunos casos conviene considerar las partículas como ondas, mientras que en otros es mejor considerar las ondas como partículas. De esto se desprende una conclusión importante: podemos observar la llamada interferencia entre dos ondas de partículas. Las crestas de las ondas de una de ellas pueden, por ejemplo, coincidir con los valles de otra. Luego, las dos ondas se cancelan entre sí en lugar de amplificarse, sumándose, como era de esperar, en ondas más altas (Figura 4.1). Un ejemplo bien conocido de interferencia luminosa son las pompas de jabón que brillan en diferentes colores del arco iris. Este fenómeno se produce como resultado del reflejo de la luz en dos superficies de una fina película de agua, que forma una burbuja. La luz blanca contiene todo tipo de longitudes de onda correspondientes a diferentes colores. Las crestas de algunas ondas reflejadas en una de las superficies de la película de jabón coinciden con los valles de ondas de la misma longitud reflejadas en la segunda superficie de la burbuja. Entonces la luz reflejada carecerá de colores correspondientes a estas longitudes de onda y la luz reflejada aparecerá multicolor.

Entonces, gracias al dualismo que surgió en la mecánica cuántica, las partículas también pueden experimentar interferencias. Un ejemplo bien conocido de este tipo de interferencia de partículas es un experimento con dos rendijas en una pantalla (figura 4.2). Considere una pantalla en la que se cortan dos estrechas rendijas paralelas. En un lado de la pantalla con rendijas hay una fuente de luz de un color determinado (es decir, de una longitud de onda determinada). La mayor parte de la luz incide en la superficie de la pantalla, pero una pequeña porción pasará a través de las rendijas. A continuación, imagine una pantalla de observación instalada en el otro lado de la pantalla con rendijas de la fuente de luz. Entonces las ondas de luz de ambas rendijas llegarán a cualquier punto de la pantalla de observación. Pero la distancia recorrida por la luz a través de las rendijas desde la fuente hasta la pantalla será, en términos generales, diferente. Esto significa que las ondas que pasan a través de las rendijas llegarán a la pantalla en diferentes fases: en algunos lugares se debilitarán entre sí y en otros se fortalecerán entre sí. Como resultado, la pantalla mostrará una imagen característica formada por franjas claras y oscuras.

Sorprendentemente, aparecen exactamente las mismas bandas cuando se reemplaza la fuente de luz con una fuente de partículas, digamos electrones, emitidas a una cierta velocidad (lo que significa que corresponden a ondas de cierta longitud). El fenómeno descrito es tanto más extraño cuanto que si sólo hay una rendija, no aparecen bandas y en la pantalla aparece una distribución simplemente uniforme de electrones. Se podría suponer que otra rendija simplemente aumentaría el número de electrones que llegan a cada punto de la pantalla, pero en realidad, debido a la interferencia, el número de estos electrones en algunos lugares, por el contrario, disminuye. Si se pasa un electrón a la vez a través de las rendijas, se esperaría que cada uno de ellos pasara por una rendija o por la otra, es decir, que se comportara como si la rendija por la que pasó fuera la única, y entonces se produciría una distribución uniforme. debería aparecer en la pantalla. Sin embargo, de hecho, las bandas aparecen incluso cuando los electrones se liberan uno a la vez. Por lo tanto, ¡cada electrón debe pasar por ambas rendijas a la vez!

El fenómeno de la interferencia de partículas se ha vuelto decisivo para nuestra comprensión de la estructura de los átomos, esos “bloques de construcción” más pequeños que se consideran en química y biología y a partir de los cuales estamos construidos nosotros mismos y todo lo que nos rodea. A principios de siglo, se pensaba que los átomos eran como el sistema solar: los electrones (partículas con carga eléctrica negativa), como los planetas alrededor del Sol, giran alrededor de un núcleo central cargado positivamente. Se suponía que los electrones se mantenían en sus órbitas mediante fuerzas de atracción entre cargas positivas y negativas, de forma similar a cómo la atracción gravitacional entre el Sol y los planetas impide que los planetas abandonen sus órbitas. Esta explicación tropezó con la siguiente dificultad: antes del advenimiento de la mecánica cuántica, las leyes de la mecánica y la electricidad predecían que los electrones perderían energía y, por lo tanto, girarían en espiral hacia el centro del átomo y caerían sobre el núcleo. Esto significaría que los átomos, y con ellos, por supuesto, toda la materia, colapsarían rápidamente a un estado de muy alta densidad. Una solución particular a este problema la encontró en 1913 el científico danés Niels Bohr. Bohr postuló que los electrones no podían moverse en ninguna órbita, sino sólo en aquellas que se encuentran a determinadas distancias específicas del núcleo central. Si también se supusiera que cada órbita podría contener sólo uno o dos electrones, entonces el problema del colapso atómico estaría resuelto, porque entonces los electrones, moviéndose en espiral hacia el centro, sólo podrían llenar órbitas con radios y energías mínimos. .

Este modelo explica perfectamente la estructura del átomo más simple: el átomo de hidrógeno, en el que sólo un electrón gira alrededor del núcleo. Sin embargo, no estaba claro cómo extender el mismo enfoque a átomos más complejos. Además, la suposición de un número limitado de órbitas permitidas parecía bastante arbitraria. Esta dificultad fue resuelta por una nueva teoría: la mecánica cuántica. Resultó que un electrón que gira alrededor de un núcleo puede imaginarse como una onda, cuya longitud depende de su velocidad. A lo largo de algunas órbitas, cabe un número entero (en lugar de fraccionario) de longitudes de onda de electrones. Al moverse a lo largo de estas órbitas, las crestas de las ondas acabarán en el mismo lugar en cada órbita, y por tanto las ondas se sumarán; dichas órbitas se clasifican como órbitas permitidas por Bohr. Y para aquellas órbitas a lo largo de las cuales no cabe un número entero de longitudes de onda de electrones, cada cresta a medida que los electrones giran es tarde o temprano compensada por una depresión; tales órbitas no estarán permitidas.

Al científico estadounidense Richard Feynman se le ocurrió una hermosa manera que permite visualizar la dualidad onda-partícula. Feynman introdujo la llamada suma de trayectorias. En este enfoque, a diferencia de la teoría clásica no cuántica, no se supone que la partícula deba tener una única trayectoria en el espacio-tiempo, sino que, por el contrario, se cree que la partícula puede moverse de A a B a lo largo de cualquier posible camino. Cada trayectoria tiene dos números asociados: uno de ellos describe el tamaño de la onda y el otro corresponde a su posición en el ciclo (cresta o valle). Para determinar las probabilidades de transición de A a B, es necesario sumar las ondas de todas estas trayectorias. Si se comparan varias trayectorias vecinas, sus fases o posiciones en el ciclo diferirán mucho. Esto significa que las ondas correspondientes a tales trayectorias se anularán entre sí casi por completo. Sin embargo, para algunas familias de trayectorias vecinas, las fases cambiarán poco al pasar de una trayectoria a otra, y las ondas correspondientes no se cancelarán entre sí. Estas trayectorias pertenecen a las órbitas permitidas por Bohr.

A partir de tales ideas, escritas en una forma matemática específica, fue posible, utilizando un esquema relativamente simple, calcular las órbitas permitidas para átomos más complejos e incluso para moléculas que consisten en varios átomos que se mantienen unidos por electrones cuyas órbitas cubren más de un núcleo. Dado que la estructura de las moléculas y las reacciones que ocurren entre ellas son la base de toda la química y de toda la biología, la mecánica cuántica en principio nos permite predecir todo lo que vemos a nuestro alrededor con la precisión que permite el principio de incertidumbre. (Sin embargo, en la práctica, los cálculos para sistemas que contienen muchos electrones resultan tan complejos que son simplemente imposibles de realizar).

La estructura a gran escala del Universo parece obedecer a la teoría general de la relatividad de Einstein. Esta teoría se llama clásica porque no tiene en cuenta el principio de incertidumbre de la mecánica cuántica, que debe tenerse en cuenta para ser coherente con otras teorías. No contradecimos los resultados de las observaciones por el hecho de que todos los campos gravitacionales con los que habitualmente tenemos que lidiar son muy débiles. Sin embargo, según los teoremas de singularidad discutidos anteriormente, el campo gravitacional debería volverse muy fuerte en al menos dos situaciones: en el caso de los agujeros negros y en el caso del Big Bang. En campos tan intensos, los efectos cuánticos deben ser significativos. Por lo tanto, la teoría general clásica de la relatividad, después de haber predicho los puntos en los que la densidad se vuelve infinita, en cierto sentido predijo su propio fracaso exactamente de la misma manera que la mecánica clásica (es decir, no cuántica) se condenó al fracaso al concluir que los átomos deben colapsan hasta que su densidad se vuelve infinita. Todavía no tenemos una teoría completa en la que la teoría general de la relatividad se combine consistentemente con la mecánica cuántica, pero sí conocemos algunas propiedades de la futura teoría. Hablaremos de lo que se desprende de estas propiedades en relación con los agujeros negros y el Big Bang en capítulos siguientes. Pasemos ahora a los últimos intentos de unificar nuestra comprensión de todas las demás fuerzas de la naturaleza en una teoría cuántica unificada.

Los principios de incertidumbre de Heisenberg son uno de los problemas de la mecánica cuántica, pero primero pasemos al desarrollo de la ciencia física en su conjunto. A finales del siglo XVII, Isaac Newton sentó las bases de la mecánica clásica moderna. Fue él quien formuló y describió sus leyes básicas, con la ayuda de las cuales se puede predecir el comportamiento de los cuerpos que nos rodean. A finales del siglo XIX, estas disposiciones parecían inviolables y aplicables a todas las leyes de la naturaleza. Los problemas de la física como ciencia parecían haber sido resueltos.

Violación de las leyes de Newton y nacimiento de la mecánica cuántica.

Pero resultó que en ese momento se sabía mucho menos sobre las propiedades del Universo de lo que parecía. La primera piedra que perturbó la armonía de la mecánica clásica fue su desobediencia a las leyes de propagación de las ondas luminosas. Así, la entonces joven ciencia de la electrodinámica se vio obligada a desarrollar un conjunto de reglas completamente diferente. Pero para los físicos teóricos surgió un problema: cómo llevar dos sistemas a un denominador común. Por cierto, la ciencia todavía está trabajando para encontrar una solución a este problema.

El mito de la mecánica newtoniana que lo abarca todo fue finalmente destruido con un estudio más profundo de la estructura de los átomos. El británico Ernest Rutherford descubrió que el átomo no es una partícula indivisible, como se pensaba anteriormente, sino que contiene neutrones, protones y electrones. Además, su comportamiento era completamente incompatible con los postulados de la mecánica clásica. Si en el macromundo la gravedad determina en gran medida la naturaleza de las cosas, en el mundo de las partículas cuánticas es una fuerza de interacción extremadamente pequeña. Así se sentaron las bases de la mecánica cuántica, que también tenía sus propios axiomas. Una de las diferencias significativas entre estos sistemas más pequeños y el mundo al que estamos acostumbrados es el principio de incertidumbre de Heisenberg. Demostró claramente la necesidad de un enfoque diferente para estos sistemas.

Principio de incertidumbre de Heisenberg

En el primer cuarto del siglo XX, la mecánica cuántica dio sus primeros pasos y los físicos de todo el mundo recién se dieron cuenta de lo que se desprende de sus disposiciones para nosotros y de las perspectivas que abre. El físico teórico alemán Werner Heisenberg formuló sus famosos principios en 1927. Los principios de Heisenberg consisten en el hecho de que es imposible calcular al mismo tiempo la posición espacial y la velocidad de un objeto cuántico. La razón principal de esto es que cuando medimos, ya influyemos en el sistema que se está midiendo y, por lo tanto, lo perturbamos. Si en el macrocosmos que conocemos evaluamos un objeto, incluso cuando lo miramos, vemos el reflejo de la luz en él.

Pero el principio de incertidumbre de Heisenberg dice que, aunque en el macrocosmos la luz no tiene ningún efecto sobre el objeto medido, en el caso de las partículas cuánticas los fotones (o cualquier otra medición derivada) tienen una influencia significativa sobre la partícula. Al mismo tiempo, es interesante observar que la física cuántica es bastante capaz de medir la velocidad o la posición de un cuerpo en el espacio por separado. Pero cuanto más precisas sean nuestras lecturas de velocidad, menos sabremos sobre nuestra posición espacial. Y viceversa. Es decir, el principio de incertidumbre de Heisenberg crea ciertas dificultades a la hora de predecir el comportamiento de las partículas cuánticas. Literalmente se ve así: cambian su comportamiento cuando intentamos observarlos.