martes, 11 de agosto de 2009

Perturbaciones dependientes del tiempo II

Lo que suceda en un sistema sometido a una perturbación H1 en donde el tiempo juega un papel importante depende de tres cosas:
  1. La cantidad de eigenestados disponibles, ya sea únicamente dos estados, o varios estados, o muchos estados.

  2. El número de partículas disponibles para ser movidas por el efecto perturbador de un estado a otro.

  3. La naturaleza de la perturbación aplicada, ya sea una perturbación H1(t) que va incrementando linealmente con el tiempo, o una perturbación que se aplica como un “pulso” (se “enciende”, por así decirlo, y se “apaga” un cierto tiempo después) o una serie de pulsos, o una perturbación armónica (que varía sinusoidalmente con el paso del tiempo), o incluso una perturbación fija y constante que ha estado presente en un sistema desde tiempos inmemoriales.
Lo anterior es además del requerimiento obligatorio de que los elementos matriciales generados por la perturbación H1 puedan ser capaces de “conectar” distintos eigenestados de las funciones de base quitándoles algo de la ortogonalidad que de otro modo resultaría en elementos matriciales iguales a cero en donde las probabilidades de transición de los distintos estados serían iguales a cero.

Así pues, hay cuatro posibilidades para la evolución de un sistema físico. La primera ocurre cuando el sistema consta de únicamente dos estados y de una sola partícula:


La segunda posibilidad ocurre cuando el sistema consta de dos estados pero de varias partículas o de muchas partículas. La tercera posibilidad se dá en un sistema que consta de varios estados o de muchos estados en donde hay un estado inicial y un estado final hacia el cual son excitadas las partículas por el efecto perturbador:


Y finalmente tenemos la cuarta posibilidad que ocurre en aquellos sistemas que constan de un estado inicial (que hemos estado designando como el estado cero o estado-0) y de varios estados finales (que hemos estado designando como estados-j) que están cercanos al estado que tiene las mayores probabilidades de recibir las partículas que son excitadas desde el estado inicial por el efecto perturbador (se recalca que el estado-0 no necesariamente es el estado fundamental del sistema, puede serlo o puede no serlo):


No resulta fácil comprender “de buenas a primeras” el significado físico de las relaciones fundamentales de la teoría de las pertubaciones dependientes del tiempo si no se intenta llevar a cabo alguna visualización de lo que está sucediendo; y tal cosa es lo que haremos justo aquí antes de continuar adelante.

Empezaremos por el caso muy sencillo de un pozo de potencial finito como el que ya hemos visto en entradas previas, el cual supondremos inicialmente vacío:




Si metemos una partícula dentro del pozo de potencial, ya hemos visto que la partícula no puede tomar cualquier valor de energía, su energía estará necesariamente cuantizada en niveles de energía como los que se muestran en la siguiente figura que también nos muestra la fórmula que nos proporciona la energía de la partícula de acuerdo al estado cuántico n en el que se encuentre:




Supóngase ahora que construímos otro pozo de potencial contiguo al pozo de potencial mostrado arriba, ambos pozos separados una distancia lo suficientemente grande para que lo que sucede en un pozo no afecte de manera apreciable lo que ocurre en el otro pozo, como lo muestra la siguiente figura en la cual se tienen dos pozos de potencial de profundidades distintas, uno con una profundidad V1 y el otro con una profundidad V2:




Para simplificar el asunto, le daremos a ambos pozos de potencial la misma profundidad:





En cada pozo de potencial podemos esperar encontrar los mismos niveles cuantizados de energía de acuerdo a la fórmula dada arriba, siempre y cuando la barrera de potencial entre ambos pozos sea lo suficientemente ancha para impedir que lo que ocurre en un pozo pueda influír de manera apreciable sobre lo que ocurre en el otro pozo:




De acuerdo a la fórmula que nos proporciona las energías cuantizadas de una partícula puesta dentro de un pozo de potencial, la energía de la partícula será inversamente proporcional al cuadrado de la anchura del pozo. Siendo así, nos preguntamos entonces: ¿qué sucederá en uno de los pozos de potencial si ampliamos su anchura al doble? De acuerdo a la fórmula, tendremos una situación como la siguiente:




De acuerdo a la fórmula para el pozo de potencial con su anchura ampliada al doble, todos los niveles energéticos del pozo derecho disminuyen a la cuarta parte de su valor original. La asimetría entre ambos pozos se vuelve evidente. Obsérvese que el nivel energético que corresponde a n.=.1 para el pozo de potencial con doble anchura ya no está a la par con el pozo de potencial izquierdo, de hecho está por debajo del nivel energético que corresponde a n.=.1 en el pozo izquierdo. Curiosamente, el nivel n.=.2 del pozo derecho es el que tiene ahora el mismo valor energético que el que corresponde a n.=.1 en el pozo izquierdo. Pero esto no es lo único que ocurre. También el espaciamiento energético entre los niveles que corresponden al pozo derecho se vuelven más estrechos que los espaciamientos que corresponden al pozo izquierdo. No se requiere de mucha imaginación para dar por hecho que si en vez de haber aumentado la anchura del pozo derecho la hubiéramos aumentado al triple, tendríamos entonces algo como lo siguiente (se muestran en la figura únicamente dos de los primeros niveles energéticos que corresponden al pozo izquierdo):




Si continuamos ampliando la anchura del pozo derecho dejando al pozo izquierdo tal y como está, los niveles energéticos del pozo derecho se irán apilando en proximidad cercana el uno del otro, y el nivel energético del pozo derecho más cercano al nivel n.=.1 del pozo izquierdo irá cambiando a n.=.10, n.=.15, n.=.25 y así sucesivamente (en el pozo izquierdo de la figura de abajo se muestra únicamente el nivel energético que corresponde a n.=.1):




En un diagrama energético prescindiendo de la reproducción pictórica de ambos pozos, tenemos un esquema como el siguiente entre ambos pozos para los cuales suponemos que la barrera de potencial entre ambos es lo suficientemente grande para impedir que lo que ocurra en un pozo pueda influenciar lo que ocurre en el otro pozo:




A continuación vamos a dar otro viraje. Vamos a disminuír la barrera de potencial entre ambos pozos asimétricos de modo tal que ambos pozos puedan interactuar mediante el mecanismo de tunelaje que ya estudiamos previamente en las entradas que corresponden a la serie titulada “Transmisión y reflexión de partículas”. Entonces tenemos una situación como la siguiente:




Mediante el mecanismo de tunelaje, hay muchas más opciones energéticas para que una partícula puesta en el pozo izquierdo se vaya hacia el pozo derecho. Y si hay muchas partículas puestas en el nivel energético n.=.1 en el pozo izquierdo, podemos anticipar que de manera casi inevitable e incluso irreversible una gran cantidad de las partículas puestas en el estado fundamental en el pozo izquierdo se trasladarán en cascada en forma casi explosiva hacia el pozo derecho. Esto es hasta cierto punto casi inevitable.

Lo que se ha descrito arriba podría venir siendo un sistema de un sistema de una partícula y muchos estados o bien muchas partículas y muchos estados..

Nuevamente, supóngase que tenemos un pozo de potencial doble, o sea dos pozos de potencial separados por una barrera de potencial finita que puede ser traspasada por una onda de materia, dándole a una partícula una oportunidad para poder estar en ambos pozos yendo de un lado a otro. Supondremos que las paredes extremas de los pozos son tan altas que la partícula no puede salirse fuera de los pozos y su movimiento quedará confinado a un recorrido horizontal. Para mayor simplicidad, también supondremos que ambos pozos de potencial son simétricamente rectangulares en la manera en que se muestra a continuación:




Los pozos mostrados arriba están vacíos, no hay nada en ellos. Una solución detallada del problema nos revela que si metemos una partícula en cualquiera de los pozos dicha partícula como onda de materia tendrá probabilidades iguales de ser encontrada en cualquiera de los pozos. La solución estática del problema mediante la ecuación de Schrödinger independiente del tiempo en realidad consta de dos soluciones, aquella en la cual los estados cuantizados corresponden a funciones de onda simétricas, y la otra en la cual los estados corresponden a funciones de onda asimétricas. Estas son las tres primeras funciones de onda simétricas:



En lo que toca a las tres primeras funciones de onda asimétricas, hay que tomar en cuenta las dos posibilidades que muestran un comportamiento un poco más interesante que las funciones de onda simétricas como lo muestra el siguiente gráfico animado:




Lo anterior en realidad es una “instantánea” de una situación estática, es lo que obtenemos en un tiempo inicial t.=.0 cuando recurrimos a la ecuación de Schrödinger independiente del tiempo subdividiendo el espacio horizontal en tres regiones (la región 1 abarca el espacio horizontal del pozo situado a la izquierda, la región 2 abarca el espacio horizontal de la barrera de potencial, y la región 3 abarca el espacio horizontal situado a la izquierda), montando el sistema de ecuaciones respectivas y resolviendo dicho sistema de ecuaciones de acuerdo a las condiciones de frontera de la función de onda Ψ. Debe ser entendible el hecho de que si hay dos partículas, una partícula en cada pozo con cada partícula ocupando el mismo nivel energético que la otra, entonces no podemos esperar que haya una migración de una partícula de un pozo hacia el otro pozo ocupado por la otra partícula. En la figura de arriba aparentemente tenemos en efecto en cada uno de los niveles energéticos lo que parece ser una “oscilación” al pasar la onda de un estado asimétrico al otro en el cual se ve reflejada la función de onda como si estuviese ante un espejo. Pero en virtud de que lo que importa para la probabilidad de localización de una partícula es el cuadrado |Ψ|2 de la función de onda y no la función de onda Ψ en sí, las “oscilaciones” que se muestran arriba no serían visibles (detectables) porque el cuadrado de la función de onda asimétrica para cada estado es exactamente la misma función de onda que es en sí simétrica. Es únicamente cuando hay una sola partícula (o muchas partículas) en uno de los pozos estando el otro pozo vacío, y recurriendo a la ecuación de Schrödinger independiente del tiempo para resolver el sistema, cuando anticipamos que al no ser la barrera de potencial impenetrable entonces deberá de haber una probabilidad igual (del 50%) de encontrar a la partícula en uno de los pozos, lo cual solo puede suceder si hay una transferencia efectiva de un pozo a otro.

Una buena manera de comprender visualmente lo que ocurre en un sistema perturbado que va evolucionando con el tiempo a causa de la pertubación es mediante algún simulado numérico, y para ello usaremos como ejemplo el simulador de la regla de oro de Fermi desarrollado por J. P. Hansen y L. Kocbach en 1988, primero en el lenguaje FORTRAN y después en código C para mayor portabilidad, en la Universidad de Bergen en Noruega. El aspecto inicial presentado por dicho simulador al momento de actualizarse ésta obra es el siguiente:




Como puede apreciarse, el simulador nos presenta tres gráficas, dos gráficas superiores y una gráfica inferior, permitiendo el simulador dentro de sus opciones el poder seleccionar el número de estados eigen que formarán parte de la simulación. Supóngase que, para empezar, especificamos un sistema con dos estados. Justo al dar inicio la simulación, tenemos una situación como la siguiente (las dos gráficas superiores se han “enderezado” aquí girándolas 90 grados):




Las dos gráficas superiores muestran los cuadrados de los coeficientes c0 y c1 indicando la probabilidad de que cada uno de los eigenestados del sistema se esté manifestando, mientras que la gráfica inferior muestra esencialmente lo mismo que lo que va apareciendo en la gráfica superior izquierda (la gráfica superior izquierda es unidimensional aunque en el simulador la altura de la barrita negra va variando con el tiempo) excepto que en la gráfica inferior se va graficando en forma cumulativa (en dos dimensiones) y en tiempo real el avance de la probabilidad que corresponde al estado inicial. En la gráfica superior derecha se muestra una barra de color azul claro, vacía de partículas que eventualmente migrarán del estado inicial que corresponde al coeficiente c0 y hacia el eigenestado que corresponde al coeficiente c1. La gráfica superior izquierda muestra una barra de color negro cuya altura es 1, indicando que la partícula (o todas las partículas) del sistema se encuentra en el estado que corresponde al coeficiente c0.

Al avanzar un poco el tiempo, se tiene la siguiente situación en una “instantánea de tiempo”:




El cuadrito de color verde en la gráfica superior izquierda resalta y encierra lo que usualmente vendría siendo la “altura” del cuadrado del coeficiente c0, mostrando que la probabilidad de que todas las partículas se encuentren en un estado inicial igual a 1 va disminuyendo de acuerdo a lo que indica la flecha de color café en la figura. La gráfica inferior nos muestra lo mismo, con el cuadrito de color verde encerrando la “punta del avance hacia abajo” de la probabilidad relacionada con el coeficiente c0. Por otro lado, en la gráfica superior derecha ha aparecido una barrita de color negro que va aumentando en altura (de acuerdo a lo que indica la flecha de color café en la figura) indicando un incremento en la probabilidad de encontrar partículas en el eigenestado que corresponde al coeficiente c1.

Lo sorprendente en la simulación ocurre cuando hemos dejado transcurrir una cantidad relativamente mayor de tiempo, ya que tenemos los siguientes resultados:




En la “instantánea” mostrada arriba, tanto en la gráfica superior izquierda como en la gráfica inferior es obvio que en ése instante de tiempo la probabilidad de encontrar al sistema en el eigenestado que corresponde al coeficiente c0 va aumentando, mientras que la probabilidad de encontrar al sistema en el eigenestado que corresponde al coeficiente c0 va disminuyendo según nos lo confirma la gráfica superior derecha. Pero lo más interesante e importante de todo es que sin lugar a dudas el sistema está oscilando, pasando completamente del eigenestado o que corresponde al coeficiente c0 al eigenestado que corresponde al coeficiente c1 tras lo cual se revierte el proceso y se lleva a cabo una migración de la partícula (o las partículas) al eigenestado contrario.

El simulador de la regla de oro de Fermi de la Universidad de Bergen ofrece la opción de suministrar la lista de valores numéricos generados por el software Mathlab usados para llevar a cabo los graficados, y en el caso que estamos viendo arriba la presentación de tales resultados numéricos de la simulación tiene el siguiente aspecto (dT es el intervalo de tiempo usado para ir avanzando en la simulación yendo del cálculo de un conjunto de probabilidades al siguiente):


El sistema de dos estados, que de acuerdo con la segunda columna empieza con el primer estado acaparando toda la disponibilidad de cuantos de energía y por lo tanto con una probabilidad de ocupación igual a 1, decrece a una probabilidad de 0.989015 al haber transcurrido el primer lapso de tiempo de 0.15 unidades temporales. Basta ver los valores siguientes de la misma columna para confirmar que después de una caída casi hasta una probabilidad igual a cero al haber transcurrido un tiempo de 2.2499 unidades temporales se recupera ascendiendo nuevamente para regresar a la probabilidad igual a la unidad, repitiéndose el ciclo indefinidamente. La tercera columna lista la suma de probabilidades de todos los demás estados, que en este caso serán las probabilidades del segundo estado, y podemos comprobar que la suma correspondiente de cada valor en la segunda columna a cada valor en la tercera columna será igual a la unidad.

Para analizar y explicar teóricamente lo que ocurre en un sistema de dos estados como lo acabamos de ver arriba en la presentación del simulador se recurre a lo que ya se vió en la entrada anterior:


con las condiciones iniciales:


Sin entrar más a fondo en el asunto, y poniendo atención en los coeficientes c que aparecen en ambos lados de cada ecuación diferencial, podemos ver que lo anterior no es más que lo que se conoce como un sistema de ecuaciones diferenciales acopladas, y éste tipo de cosas por lo general conducen a comportamientos oscilatorios.

El fenómeno más fácil de entender que se nos puede venir a la mente para visualizar éste tipo de comportamiento oscilatorio es el de dos pozos de potencial separados por una barrera de potencial lo suficientemente corta para que pueda ser atravesada por una onda de materia que migre de un pozo de potencial al otro pozo de potencial próximo a ella. Si colocamos una partícula en el estado fundamental (n.=.1) de cualquiera de los dos pozos que pueden ser incluso pozos idénticos, una partícula confinada a uno de los pozos se encuentra en una situación altamente inestable a menos de que ambos pozos se encuentren tan alejados el uno del otro o que la barrera de potencial sea tan alta que no hay probabilidades de que la partícula pueda salir del estado fundamental de un pozo de potencial para trasladarse al estado fundamental del otro pozo de potencial. En una oscilación, la partícula estará rebotando indefinidamente de un pozo a otro, cambiando de dirección e invirtiendo el sentido de su movimiento al momento de toparse con la pared de uno de los pozos. Cabe destacar que ésto no es simplemente un asunto de mero interés académico para ser discutido teóricamente como algo digno de discusión. Gracias a los avances en la microelectrónica, tales oscilaciones existen y han sido producidas a nivel de laboratorio en experimentos que emplean el llamado punto cuántico. Se trata de un fenómeno completamente real que confirma la univeralidad de los principios de la Mecánica Cuántica, y si no existiera la teoría para explicarlo dicha teoría tendría que ser desarrollada desde el principio. Afortunadamente, la teoría fue desarrollada previamente para beneficio nuestro por los grandes pioneros de las décadas de los veintes y los treintas del siglo pasado.

Vamos a hacer una simulación un poco más interesante. Supóngase ahora que, para empezar, especificamos tres estados. Por razones didácticas que serán obvias más abajo, volveremos a “acostar” tanto la gráfica superior izquierda como la gráfica superior derecha girando ambas gráficas 90 grados hacia la derecha (así es como funciona el simulador de la Universidad de Bergen). Justo al dar inicio la simulación en un sistema con tres estados, tenemos una situación como la siguiente:




De nueva cuenta, las dos gráficas superiores muestran los cuadrados de los coeficientes que indican la probabilidad de que cada uno de los tres eigenestados del sistema se esté manifestando, mientras que la gráfica inferior muestra esencialmente lo mismo que lo que va apareciendo en la gráfica superior izquierda (unidimensional) excepto que en la gráfica inferior se va graficando en forma cumulativa (en dos dimensiones) el avance de la probabilidad que corresponde al estado inicial. En la gráfica superior derecha se muestran dos barras de color azul claro, vacías ambas de partículas que eventualmente migrarán del estado inicial hacia los dos estados finales. El cuadrito de color verde en la gráfica superior izquierda resalta y encierra lo que usualmente vendría siendo la “altura” del cuadrado del coeficiente c0, mostrando que la probabilidad de que todas las partículas se encuentren en el estado inicial es igual a 1.

Transcurrido cierto tiempo, varias de las partículas que se encontraban en el estado inicial han emigrado hacia los otros dos estados y el cuadrado del coeficiente c0 ha disminuído, indicando una reducción en la probabilidad de encontrar partículas en el estado inicial a la vez que hay ya una probabilidad de encontrar partículas en los otros dos estados:




Obsérvese que al igual que en el caso de un sistema con dos estados, las flechas de color café obscuro que han sido agregadas a las tres gráficas indican el sentido en el que se están moviendo (en tiempo real) tanto las líneas rectas que indican probabilidades de ocupación en las dos gráficas superiores como la curva en la gráfica inferior que esencialmente nos proporciona en dos dimensiones pero de manera cumulativa la misma información que nos proporciona la gráfica superior izquierda.

Después de transcurrir otro lapso de tiempo, la situación en el sistema de tres estados es la siguiente:




Tanto la gráfica superior izquierda como la gráfica inferior indican que la probabilidad de encontrar partículas en el estado inicial es baja, mientras que las probabilidades de encontrar partículas en los otros dos estados es relativamente alta. Obsérvese que las probabilidades para encontrar partículas en los otros dos estados mostrada por la gráfica superior derecha nos muestra probabilidades iguales para cada uno de los dos estados que individualmente en la gráfica tienen un valor cercano a 0.5 pero que sumadas nos dan un valor cercano a la unidad, confirmando el hecho de que en todo momento la suma total de los cuadrados de los coeficientes de todos los estados es igual a 1.

Al dejar transcurrir más tiempo en el simulador las probabilidades de encontrar partículas en los dos estados mostrados por la gráfica superior derecha disminuyen a la vez que las probabilidades de encontrar partículas nuevamente en el estado inicial aumentan. Aparentemente, lo anterior sería el fin del asunto e intuitivamente anticiparíamos que el sistema seguirá oscilando, lo cual ocurre, pero resulta que ya no se genera una onda cosenoidal “pura”, y de hecho este comportamiento oscilatorio se repite una y otra vez de la manera en que se muestra a continuación (se ha agregado con fines didácticos una cuarta gráfica en la parte inferior que no forma parte del simulador de la Universidad de Bergen):




La cuarta gráfica inferior en realidad es una de dos gráficas iguales para los dos estados mostrados en la gráfica superior derecha. Obsérvese que la amplitud de la cuarta gráfica inferior es de 0.5, indicando que cuando los coeficientes de probabilidad en los dos estados está al máximo la suma de probablidades de 0.5 es igual a 1, indicando que en ese instante de tiempo no hay partículas en el estado que corresponde a la gráfica superior izquierda. La suma vertical de los valores que aparecen en la tercera gráfica inferior a dos veces los valores que aparecen en la cuarta gráfica inferior en todo momento son iguales a 1, indicando que todas las partículas del sistema se tienen que encontrar forzosamente con certidumbre total en algún lado.

Para analizar y explicar teóricamente lo que ocurre en un sistema de tres o más estados como lo acabamos de ver arriba en la presentación del simulador se recurre a lo que ya se vió en la entrada anterior para varios estados:


con las condiciones iniciales:


A estas alturas el tratar de efectuar los cálculos numéricos a mano se convierte en una cosa extremadamente pesada y laboriosa, y aún con la ayuda de una calculadora ordinaria el tratar de obtener por cuenta propia resultados numéricos para un sistema de tan solo unos diez estados es algo que nos podría tomar varias semanas o meses. Por algo había tanta prisa en la década de los cincuenta del siglo pasado para desarrollar las máquinas de cómputo que hoy conocemos como computadoras!

Las “instantáneas” anteriores son para un sistema de únicamente tres estados. Veamos lo que sucede en un sistema de cinco estados (en la gráfica superior izquierda aparece el estado inicial mientras que en la gráfica superior derecha aparecen los otros cuatro estados, cinco estados en total):




El comportamiento sigue mostrando una actitud oscilatoria, excepto que ahora las partículas parecen pasar más tiempo en los otros cuatro estados (gráfica superior derecha) que en el estado inicial (gráfica superior izquierda).

A continuación, vamos a aumentar el número de estados de cinco a diez. Veamos el comportamiento resultante al haber transcurrido una buena cantidad de tiempo:




Definitivamente, las partículas que se van hacia los estados del lado derecho parecen pasar más tiempo en dichos estados que en el estado inicial. Del mismo modo, los estados en el lado derecho parecen ir tomando el aspecto de una curva.

A continuación, vamos a doblar el número de estados corriendo la simulación con 20 estados en lugar de diez. Veamos el comportamiento resultante al haber transcurrido una buena cantidad de tiempo:




A estas alturas el comportamiento en el estado superior izquierdo manifiesta ya lo que parece ser un decaimiento exponencial, y se le puede considerar realmente como un estado inicial al cual el sistema ya no regresará, mientras que los demás estados alojan las partículas que se distribuyen en lo que parece ser una curva más pronunciada aún.

A continuación, vamos a doblar el número de estados corriendo la simulación con 40 estados en lugar de 20. Veamos el comportamiento resultante al haber transcurrido una buena cantidad de tiempo:




Finalmente, vamos a doblar el número de estados corriendo la simulación con 50 estados, atentos al comportamiento resultante al haber transcurrido una buena cantidad de tiempo:




De hecho, en algún punto de la simulación, al usar una gran cantidad de estados, la gráfica tomará el aspecto de una función sinc cuadrática como ya lo habíamos en la entrada anterior al desarrollar el análisis de modo puramente teórico:




De este modo, el comportamiento del sistema con dos estados, inicialmente oscilatorio, se ha convertido en un decaimiento exponencial al haber una cantidad mayor de estados disponibles. El siguiente par de figuras nos muestra lo que ocurre cuando desde el estado energético solitario a la izquierda inicialmente repleto de partículas se lleva a cabo una transferencia de partículas que van pasando hacia el conglomerado de niveles energéticos de la derecha:




Lo anterior son únicamente “instantáneas” en tiempos selectos de lo que aparece en el simulador de la Universidad de Bergen. El siguiente gráfico animado nos ilustra un poco mejor en tiempo real lo que va sucediendo en un sistema que cuenta con muchos estados:




La gráfica de la izquierda nos muestra lo que viene siendo una caída exponencial que ocurre a la vez que los estados energéticos se van poblando como lo muestra la gráfica de la izquierda. Obsérvese en la gráfica de la derecha que al llegar a cierto punto se va “construyendo” casi por sí sola una función sinc cuadrática, justo lo que habíamos visto en la entrada anterior. El cuasi-continuo que aparece en el recuadro derecho puede ser engañoso en el sentido de que nos puede dejar con la impresión de que conforme va tomando la distribución su aspecto característico en la figura derecha al irse vaciando el nivel energético solitario que aparece en el recuadro izquierdo, el cuasi-continuo se va “llenando” de las partículas que se están escapando del nivel energético solitario que aparece en el lado izquierdo, o sea una simple transferencia de partículas. Esto desde luego es algo que puede ocurrir, pero lo que puede suceder también es que al irse vaciando de partículas el nivel energético solitario mostrado en el recuadro izquierdo las partículas no “viajan” hacia el cuasi-continuo en el recuadro derecho sino que todas esas partículas van a caer a un estado menos excitado (o más “fundamental”) que no aparece mostrado en el simulador, mientras que la distribución que va tomando forma en el recuadro derecho corresponde a fotones que se van distribuyendo conforme la “regla de oro” de Fermi, fotones que no son conservados por el sistema como si fuesen partículas sino que van saliendo del sistema alejándose a otras partes pero que de cualquier manera pueden dejar huella en los espectros de emisión o de absorción.

Para una gran cantidad de estados, la gráfica del decaimiento exponencial mostrada por el simulador de la regla de oro de Fermi de la Universidad de Bergen se va construyendo de una manera parecida a como lo muestra en el siguiente gráfico animado:




Lo anterior no es el fin del asunto. Al transcurrir el tiempo y continuar el proceso, la distribución de probabilidades o bien números de ocupación (si se le quiere interpretar de ésa manera) va tomando más y más el aspecto de una función delta de Dirac como lo muestra el siguiente gráfico animado (se ha puesto suficiente margen de tiempo entre cada cambio de imagen para que el lector pueda apreciar los valores verticales que corresponden a F(ω,t) en la gráfica y darse cuenta de lo pronunciado que se va volviendo el “pico central” conforme el tiempo transcurrido avanza de una unidad de tiempo a 2 unidades de tiempo a 5 unidades de tiempo a 20 unidades de tiempo a 60 unidades de tiempo y hasta 99 unidades de tiempo):




De éste modo, de acuerdo a lo que podemos comprobar con la ayuda del simulador, al ir aumentando el número de estados disponibles el comportamiento del sistema claramente va pasando de un comportamiento oscilatorio a un comportamiento de decaimiento exponencial:




Aunque las imágenes presentadas arriba en el simulador de la regla de oro de Fermi, si es que hemos tenido presente lo que puede ocurrir en un sistema de dos pozos, parecen sugerirnos que el estado energético de las partículas (o cuantos de energía) ubicadas en el pozo de anchura corta (pozo izquierdo) es algo diferente y hasta casi independiente del estado energético de las partículas que se van ubicando en el pozo de anchura amplia, esto no es así, y de hecho debemos considerar que tomados ambos pozos como formando parte de un sistema el nivel energético del pozo izquierdo forma parte del espectro de energías del pozo derecho, algo así como se muestra a continuación:




De este modo, resulta más comprensible tener en mente una gráfica como la siguiente que nos muestra el nivel energético de un átomo que se encuentra en un estado excitado al lado de los niveles energéticos de los fotones que se han producido al caer el átomo del estado excitado a un nivel energético menos excitado:




En la gráfica, la línea vertical solitaria de color azul al lado derecho representa el nivel de energía que corresponde a un átomo excitado, mientras que las líneas verticales de color verde del lado derecho representan los nivels de energía que corresponden a una distribución de probabilidades de ocupación en caso de que el átomo en estado excitado caiga a un nivel energético más bajo liberando un “cuanto de energía” hacia cualquiera de las líneas verticales verdes con probabilidad de caer en alguna de dichas líneas de acuerdo a la altura de la línea. La misma gráfica se reproduce abajo en dos etapas, una etapa designada como “Antes” en la cual hay un gran número de partículas en la línea vertical (gruesa) de color negro representando lo que vendría siendo un estado altamente inestable, y la otra etapa designada como “Después” en donde al caer todos los átomos a un estado menos energético el enjambre de átomos libera una gran cantidad de fotones hacia el cuasi-continuo que deja de estar vacío:




Regresando al sistema compueso por dos pozos de potencial con una partícula puesta en uno de ellos, debe entenderse bien que el operador Hamiltoniano de energía de los estados eigen que corresponden a la partícula puesta en uno de los dos pozos, habiendo una ecuación de Schrödinger para cada pozo, no es el mismo operador individual que el operador Hamiltoniano de energía para el sistema combinado de ambos pozos que están proximidad cercana el uno con el otro separados únicamente por una barrera de potencial finita:




Un problema de ésta índole para una partícula que se encuentra en uno de dos pozos separados por una barrera de potencial, se puede resolver de manera diferente, sin recurrir a la teoría de las perturbaciones dependientes del tiempo, recurriendo a las mismas técnicas que se vieron en la serie de entradas tituladas “Transmisión y Reflexión de Partículas”, con la única diferencia es que aquí se tiene una situación más dinámica y móvil que requiere echar mano de la ecuación de Schrödinger para una función de onda dependiente del tiempo, lo cual se verá posteriormente en mayor detalle en la serie de entradas tituladas “Evolución temporal de las ondas de materia”.

Resumiendo:

Cuando se tienen únicamente dos estados y una sola partícula, tanto el simulador de la regla de oro de Fermi como la teoría de las perturbaciones dependientes del tiempo predicen que el sistema estallará casi inevitablemente en oscilaciones, algo así como lo que ocurre cuando en el sistema de dos pozos idénticos separados por una barrera de potencial lo suficientemente corta como para que se pueda llevar a cabo el efecto de tunelaje cuando se coloca una partícula en el estado energético más bajo de uno de los pozos. La partícula irá de un pozo a otro dependiendo de la altura del potencial a ser atravesado y la anchura de la barrera. Esto es lo que ocurre en un sistema que consta de dos estados y una sola partícula.

Cuando se tiene un sistema que consta de muchos estados y el cual es sometido a una perturbación por pequeña que sea, habrá un decaimiento exponencial. con una migración masiva de partículas o “cuantos de energía” del estado sobrepoblado hacia los estados energéticos disponibles para ser ocupados. Este es el sistema que consta de muchos estados y muchas partículas.


En la derivación dada en la entrada previa de la regla de oro de Fermi, hay un detalle que posiblemente haya causado algo de inquietud en algunos lectores. En varios de los pasos intermedios, cuya consecuencia en cierto modo se arrastra incorporada hasta el final, para eliminar uno de los dos términos (el llamado término “antiresonante”) se asentó el supuesto según el cual se considera válida la siguiente aproximación:

ω ≈ |ωj0|

Pero, suponiendo que ω sea la frecuencia (angular) de una perturbación aplicada (por ejemplo, una señal oscilatoria electromagnética de radiofrecuencia o de microondas o de pulsos de luz), y suponiendo que ω pueda ser “sintonizada” para hacerla no aproximadamente igual sino exactamente igual a ωj0, o sea:

ω = ωj0

entonces la diferencia ωj0-ω en el denominador provoca invariablemente una división entre cero:


con lo cual la magnitud del término “resonante”) se dispara hacia el infinito al menos en ése punto en la integración, levantando sospechas de que la inclusión matemática de éste punto anómalo dentro del proceso de integración final pueda introducir un error matemático mayúsculo o una situación física que pueda terminar siendo interpretada como una verdadera catástrofe. Sin embargo, en la práctica es imposible que ocurra “la catástrofe” que resultaría de la división por cero, porque aunque el experimentador pudiera igualar (variando la frecuencia ω del campo girando muchas perillas) ambas frecuencias, el número de átomos (o moléculas) para cualquier experimento de éste tipo no es infinito, y aunque la muestra disponible contenga un número muy grande (por ejemplo, un mol) eventualmente dicho número es finito y en cualquier experimento el número de partículas disponibles terminará agotándose más pronto de lo que se espera, y ésto último es lo que permite en la práctica que ambas frecuencias puedan ser igualadas sin mayores consecuencias. En un graficado en tiempo real, después de haber transcurrido buen tiempo esperaríamos entonces que la distribución se aproxime a lo que parecerá una línea vertical en el punto ω.=.ωj0 con una altura considerable, pero como lo que verdaderamente cuenta es el área bajo la curva y la línea vertical tendrá a fin de cuentas una cierta anchura (aunque no sea visible) produciendo un área que ya sabemos que será igual a la unidad (indicando una probabilidad de 1). Lo que más se aproxima a una cosa de éste tipo es la función delta de Dirac, y de hecho en algunas derivaciones de la regla de oro de Fermi la regla de oro se dá no usando la función sinc cuadrática sino la función delta de Dirac. Específicamente, lo que aparece en tales expresiones es:


o en la notación que estamos usando aquí:


Resulta instructivo derivar la “regla de oro” de Fermi en la cual aparece no la función sinc cuadrática sino la función delta de Dirac. Puesto que lo que realmente queremos conocer es la probabilidad por unidad de tiempo de que ocurran las transiciones provocadas por la perturbación si la perturbación es aplicada sobre un intervalo grande de tiempo, entonces suponiendo una perturbación armónica (que varía sinusoidalmente) considérese un intervalo de tiempo T y escójase:


A un primer orden de corrección (se usará nuevamente el super-índice 1 entre paréntesis para resaltar ésto), la tasa de transiciones de un estado incial a otro estado final será (como ya se vió con anterioridad) igual a la probabilidad total dividida entre el intervalo de tiempo T (lo que está puesto en azul son los demás términos usuales que ya vimos con anterioridad):


En el límite de un tiempo T muy grande (no es necesario esperar varios años, algunos cuantos segundos o inclusive milisegundos puede ser tiempo más que suficiente), la expresión anterior adquiere un “pico” bastante pronunciado únicamente cuando ωfi.=.ω, de lo contrario la expresión se desvanece conforme el tiempo avanza hacia el infinito. La condición ωfi.=.ω es equivalente a la condición:

Ef = Ei + ħω

que no es otra cosa más que un enunciado de la conservación de la energía. Puesto que ħω es esencialmente un cuanto de energía (proveniente, por ejemplo, de un campo electromagnético), una transición solo se puede llevar a cabo si la energía del campo está exactamente “sintonizada” para la transición. De éste modo, la frecuencia del campo que está siendo aplicado a la muestra puede ser usada como una “sonda” para atisbar en la estructura de los eigenvalores de un Hamiltoniano.

Ahora bien, considérese el límite T..∞ (un tiempo bastante grande). En éste límite, las matemáticas nos dicen en relación al proceso límite que lo siguiente es válido:


Esta simplificación, recurriendo a la función delta de Dirac en vez de usar la función sinc cuadrática como lo hicimos en la entrada anterior para obtener la regla de oro de Fermi, nos permite llevar a cabo el cálculo separando la integral “cuadrática” en el producto de dos integrales como tal producto se define en la Mecánica Cuántica (la función multiplicada por el conjugado complejo de la función):


la primera de las cuales produce la función delta de Dirac como ya se indicó arriba, y la segunda produciendo simplemente una T que cancela la T que estaba en el denominador del primer factor:


Lo que se ha obtenido aquí es esencialmente lo mismo que lo que se obtuvo al final de la entrada anterior bajo la suposición de la aplicación de una perturbación armónica, o sea la regla de oro de Fermi, excepto que éste resultado usa la función delta de Dirac mientras que el resultado obtenido en la entrada anterior incorpora la función sinc cuadrática. Lo importante en todo caso es que la posibilidad de que la perturbación aplicada al sistema pueda tener efecto alguno dependerá de la “fuerza” del elemento matricial que conecta al estado final con el estado inicial; si tal elemento matricial es cero entonces la probabilidad de transición será igualmente igual a cero.

La función delta de Dirac no es lo mismo que la función sinc cuadrática. Mientras que en una gráfica la función sinc cuadrática tiene el aspecto de una distribución estadística con un “pico” central pronunciado, la función delta de Dirac es mostrada como una línea recta vertical o inclusive como una flecha que apunta hacia arriba. Sin embargo, y esto es lo que hay que tomar en cuenta, a medida que transcurre el tiempo la función sinc cuadrática se va aproximando a la función delta de Dirac, y de hecho en la fórmula matemática que vimos arriba se aprecia que la función delta de Dirac se puede definir como una aproximación límite recurriendo a la función sinc cuadrática. Por otro lado, aunque en muchas gráficas se acostumbre dibujar a la función delta de Dirac como una línea recta vertical causando la impresión de algo que terminará convirtiéndose en una recta ideal de Euclides con una altura infinita y anchura cero, tal apreciación es una mera ilusión, ya que lo que importa es el área bajo la curva de la función delta de Dirac, y tal área se mantiene constante todo el tiempo sin importar cuánto se vaya cerrando la “anchura” de la curva conforme transcurre el tiempo, como lo muestra el siguiente gráfico animado de la función en la que el área bajo la curva se mantiene constante conforme se va cerrando su anchura a la vez que la altura del “pico” va aumentando (recuérdese que, por convención, la altura de la recta vertical que representa una función delta de Dirac es usualmente graduada para especificar el valor de cualquier constante multiplicativa que dará el área bajo la curva de la función delta de Dirac):




Una advertencia: En muchos textos y tratados se acostumbra escribir la regla de oro de Fermi que incorpora la función delta de Dirac usando una notación como la siguiente:


haciéndose:



En tales textos y tratados, se habla de la probabilidad de que un sistema físico pueda ser excitado de un eigenestado inicial:

|Ei

con energía Ei a un estado final:

|Ef

con energía Ef. En ambos casos, los kets |Ei〉y |Ef〉 representan funciones de onda, no energías (una función de onda ψ carece de dimensiones, mientras que una energía E es algo que se mide en ergs o joules). Esto es algo en lo que hay que estar alerta. Los bras y kets que hemos estado manejando representan funciones de onda, y ésto no ha cambiado aquí.