Si las líneas espectrales del hidrógeno atómico que corresponden a la serie de Balmer (la única serie situada en la porción visible del espectro electromagnético) fueran todas de la misma intensidad, entonces en vez de poder apreciar algo como lo siguiente en los espectógrafos de laboratorio:
que podemos idealizar del modo siguiente:
con las líneas finas a la izquierda aún pudiéndose distinguir gracias a la intensidad decreciente de las líneas al ir de izquiera a derecha (esto es, al ir decreciendo la longitud de onda yendo de la porción roja del espectro hacia la porción violeta), lo que veríamos a la izquierda sería un bulto grueso en donde no hay nada que se pueda distinguir, y las líneas correspondientes a la serie de Balmer, la serie de Paschen, la serie de Lyman y otras posiblemente nunca habrían podido ser descubiertas al ser imposibles de distinguir una de la otra al estar en proximidad cercana.
Explicar la diferencia en las intensidades de las líneas espectrales nos lleva necesariamente a la búsqueda de un modelo que asigne en forma cuantitativa probabilidades a cada línea espectral de poder ser observada, en el sentido de que una mayor intensidad de una línea espectral debe reflejar el hecho de que el mecanismo que produce tal línea espectral tiene mayores probabilidades de ocurrir que las probabilidades estimadas para las demás líneas espectrales que son de menor intensidad. Aquí fué donde entró la ecuación de Schrödinger con su postulación de la función de onda Ψ y la interpretación probabilista de Ψ2 dada por Max Born junto con el concepto del traslape de dos funciones de onda distintas indicando la probabilidad de que tal o cual evento ocurra dependiendo de la magnitud del traslape, con probabilidad igual a cero en donde no hay traslape alguno de las funciones de onda.
Existe una categoría especial de problemas importantes en donde la ecuación de Schrödinger independiente del tiempo ya no basta para poder explicar tal o cual fenómeno, en virtud de que el factor tiempo toma una importancia preponderante. Esto nos obliga a recurrir a la ecuación de Schrödinger dependiente del tiempo, lo cual complica las cosas. Es aquí cuando entra en el panorama la teoría de las perturbaciones dependientes del tiempo que permite deducir cosas tales como la regla de oro de Fermi. Pero nos estamos adelantando a una conclusión final que tiene que ser justificada primero sobre bases sólidas.
Al aplicar anteriormente la Teoría de las Perturbaciones, tal cosa se hizo usando la ecuación de Schrödinger independiente del tiempo:
puesto que todos los sistemas se suponían estacionarios. Pero cuando el operador de energía Hamiltoniano es algo que varía con el tiempo, entonces no queda otro remedio más que recurrir a la ecuación de Schrödinger independiente del tiempo:
Considérese ahora el caso en el cual el operador Hamiltoniano H puede ser separado en dos partes, una parte H0 que representa al sistema cuando no hay perturbación alguna, y otra parte H1 que representa una perturbación que se le agrega al sistema en donde el término de perturbación que se supone pequeño depende explícitamente de la variable tiempo:
En su sentido más general, para una función de onda Ψ(r,t) dependiente del tiempo en donde r representa la posición en algún sistema de coordenadas tridimensional, la ecuación de Schrödinger dependiente del tiempo:
puede ser resuelta mediante la técnica de separación de variables:
La separación de variables conduce casi de inmediato a lo siguiente:
La notación anterior resulta poco cómoda para poder leer tipografía pequeña, y es por ello que en muchas ocasiones para indicar exponenciación sobre el número e resulta preferible utilizar notación llana:
En virtud de que un cuanto de energía está dado por:
es frecuente usar la siguiente forma que resulta mucho más cómoda y breve:
Así pues, una función de onda dependiente del tiempo en su sentido más general se puede simbolizar de la siguiente manera:
Lo que vamos a considerar aquí es un sistema al cual se le aplica una perturbación que varía con el tiempo. El operador Hamiltoniano de energía del sistema original no cambia, permanece inmutable, lo que va variando con el tiempo es la perturbación que se le agrega:
En rigor de verdad, una notación más apropiada es la siguiente que indica que el Hamiltoniano total que consta de la suma del Hamiltoniano no-perturbado y el Hamiltoniano de perturbación que varía con el tiempo es la siguiente:
Un ejemplo específico de ésto es el siguiente:
en donde el término M puede representar ya sea una matriz o en el caso de una matriz 1×1 con un solo elemento puede representar alguna expresión algebraica ordinaria. En algunos textos el elemento de perturbación usado en los ejemplos es el potencial variante con el tiempo V(t), escribiéndose lo siguiente:
Otros textos ni siquiera hacen explícito el hecho de que el potencial V varía con el tiempo, escribiendo lo anterior simplemente como:
Esto último puede ser fuente de muchas confusiones, en virtud de que desde el momento en que alguien es introducido a la Mecánica Ondulatoria se le acostumbra al hecho de que el operador Hamiltoniano H se forma mediante la suma del operador de energía cinética T que incluye todas las fuentes posibles de energía cinética de la partícula y el operador de energía potencial V que incluye todos los potenciales de energía a los que se encuentre sometida la partícula, y no parece lógico que en base a ésta costumbre notacional para los elementos que forman el operador H se le venga agregando posteriormente un potencial V que siguiendo la costumbre debería de ser parte “interna” (por así decirlo) de H. Sin embargo, es imperativo distinguir las diferencias. El V al que previamente nos habíamos estado refiriendo es un potencial invariante, usado dentro del operador H al recurrir a la ecuación de Schrödinger independiente del tiempo. Pero V es un potencial que varía con el tiempo y el cual es introducido como un término de perturbación. Es necesario estar alerta ante estos pequeños detalles con desafortunada frecuencia pueden provocar un mar de confusión.
El análisis con el que usualmente empieza una introducción a la teoría de las perturbaciones dependientes del tiempo no resulta fácil de asimilar en virtud de que se empieza con un sistema compuesto por muchos estados (o bien, muchas partículas), lo cual complica algo la notación. Es por ello que, antes de entrar en detalle usando un sistema compuesto por muchos estados, empezaremos con un sistema compuesto por únicamente dos estados, lo cual no es tan difícil de seguir, tras lo cual el análisis para el caso más general de un sistema compuesto de muchos estados resultará un poco más asimilable.
Supóngase que tenemos dos estados de un sistema no-perturbado, ψa y ψb. Dichos estados deben ser estados eigen del operador Hamiltoniano no-perturbado H0:
Se supone que las funciones de onda para tales estados son ortonormales, esto es, cumplen con la condición:
siendo δ el delta de Kronecker.
Cualquier estado en el que se encuentre el sistema puede ser expresado como una combinación linear de los dos eigenestados:
En la ausencia de cualquier perturbación, cada componente evoluciona con su factor exponencial característico:
Cuando se dice arriba que |c0|2 es la probabilidad de que la partícula (o el sistema) se encuentre en el estado-a en realidad estamos hablando de la probabilidad de que una medición de la energía arrojará como resultado el valor Ea. La normalización de onda del sistema requiere desde luego que se cumpla la condición:
Supóngase ahora que se introduce una perturbación en el sistema que sea dependiente del tiempo, una perturbación que simbolizaremos como H1. Puesto que ψa y ψb constituyen un conjunto completo, la función de onda Ψ(r,t) del sistema se debe poder seguir expresando como una combinación linear de los dos eigenestados, y la única diferencia es que tanto el coeficiente c0 como el coeficiente c1 son ahora ambos funciones del tiempo:
El problema consiste ahora en determinar dichos coeficientes c0 y c1 como funciones del tiempo. Resolver tal cosa empieza por demandar que Ψ(r,t) satisfaga la ecuación de Schrödinger dependiente del tiempo para un sistema perturbado:
De las dos ecuaciones anteriores, tomando la derivada de Ψ con respecto al tiempo y usando lo anterior encontramos lo siguiente:
En virtud de la ecuaciones:
de las cuales se obtiene lo siguiente en la primera relación:
los primeros dos términos al lado izquierdo de la igualdad cancelan exactamente los últimos dos términos de la igualdad:
con lo cual nos queda simplemente:
Para aislar dc0/dt en lo anterior, formamos el producto interno de todo multiplicándolo todo por la izquierda en ambos lados de la igualdad con el conjugado complejo de la eigenfunción ψa e integrando sobre todas las coordenadas que se estén utilizando, esto con la intención de explotar la ortogonalidad que hay entre ψa y ψb:
Por la ortogonalidad que hay entre ψa y ψb, se tiene que:
entonces el segundo término en el lado derecho de la igualdad se desvanece (que era lo que en realidad queríamos hacer desde un principio), de modo tal que simplificando un poco las cosas recurriendo a la notación bra-ket de Dirac nos quedamos con lo siguiente:
A continuación, definiremos lo siguiente (precaución: el sub-índice i usado en esta definición intermedia no tiene nada que ver con el número imaginario i que tenemos en la relación que estamos desarrollando):
Es importante destacar que el operador de perturbación H1 que aparece en el lado derecho no necesariamente tiene que ser una matriz, puede serlo o puede no serlo, dependiendo del sistema físico que se encuentre bajo estudio. Sin embargo, con la operación bra-ket que se está efectuando se está construyendo un conjunto de elementos matriciales que se pueden acomodar en una matriz H1. Y así, en efecto, lo que tenemos en el lado izquierdo viene siendo al final de cuentas una matriz. Se hace hincapié en que la Hermiticidad de H1 implica que se debe tener también lo siguiente:
Usando la definición que acabamos de hacer en términos matriciales, y multiplicando ambos miembros de la igualdad que estamos desarrollando por el factor:
llegamos entonces al siguiente resultado:
Del mismo modo, si en vez de haber premultiplicado todo por la izquierda en ambos lados de la igualdad no con el conjugado complejo de la eigenfunción ψa sino con el conjugado complejo de la eigenfunción ψb, repitiendo los mismos últimos pasos habríamos llegado a lo siguiente:
para así obtener:
Las ecuaciones que hemos obtenido para los coeficientes c dependientes del tiempo para un sistema de dos estados son completamente equivalentes a la ecuación de Schrödinger dependiente del tiempo. Con mucha frecuencia, en la teoría de las perturbaciones encontramos que los elementos diagonales de la matriz de perturbación H1 se desvanecen, lo cual implica en las dos relaciones que hemos obtenido que:
Es así como el sistema de ecuaciones para los coeficientes c dependientes del tiempo queda reducido a su resultado final:
en donde se ha definido a ω0 de la siguiente manera:
Obsérvese que éste ω0 puede ser positivo o negativo dependiendo del hecho de que Eb.sea mayor que Ea.o menor que Ea.
Hasta aquí los resultados son exactos, no se ha hecho ninguna suposición acerca del tamaño de la perturbación, pero si se hace tal cosa se pueden llevar a cabo otras simplficaciones posteriores que veremos después en mayor detalle.
Lo que hemos desarrollado arriba es lo que corresponde a un sistema perturbado que consta únicamente de dos estados. El caso más frecuente y de mayor importancia es aquél en el cual se tiene un sistema con una gran cantidad de estados, para lo cual podemos desarrollar una relación de carácter más general repitiendo en esencia los mismos pasos que los que se usaron arriba para un sistema de dos estados. En una situación así, se recurre al símbolo de la sumatoria Σ para manejar una gran cantidad de estados, pero téngase en cuenta de que los procedimientos y la intención de cada paso en el desarrollo es exactamente igual a lo que se desarrolló arriba. Tener en mente lo que se hizo para un sistema de dos estados puede ser de gran utilidad para comprender la mecánica de una derivación para un sistema que consta de muchos estados.
El punto de partida sigue siendo el mismo, la ecuación de Schrödinger dependiente del tiempo:
con un término de perturbación H1 que se supone pequeño y que depende explícitamente de la variable tiempo. Asimismo, las eigenfunciones de energía del sistema no-perturbado y que son independientes del tiempo satisfacen la ecuación de Schrödinger independiente del tiempo
Es común encontrar en algunos textos a la función de onda de la ecuación anterior representada como un ket en la notación bra-ket de Dirac con el operador H0 actuando sobre dicho ket en el lado izquierdo de la anterior igualdad:
Premultiplicando lo anterior por el conjugado complejo de la función de onda ψj y poniéndolo todo en notación de Dirac, lo anterior se puede escribir del siguiente modo:
El operador H0 puede ser una matriz o puede no serlo. Podemos escribirlo como H0 dejando abierta la posibilidad de que sea una matriz 1×1, esto es, una matriz de un solo elemento, con lo cual cubrimos todas las posibilidades. Considerando tanto a H0 como a H1 en sentido más general como matrices, los elementos matriciales respectivos de estos dos operadores serán pues:
La primera relación únicamente nos confirma que H0 tiene que ser una matriz diagonal cuyos eigenvalores Ek deben ser los elementos que van colocados a lo largo de la diagonal principal de H0, mientras que la segunda relación nos advierte de antemano que H1 no será necesariamente una matriz diagonal. Más aún, si H1(t) es un operador que varía con el tiempo, entonces al actuar sobre la función de onda ψj a la derecha producirá un ket (resaltado de color magenta) que representa una función de onda que ha evolucionado con el tiempo. Podemos identificar entonces a ψk como un estado inicial. De éste modo, el siguiente producto bra-ket:
entre dos funciones de onda (el bra a la izquierda en color negro es una de esas dos funciones de onda, el ket a la derecha es la otra función de onda) nos proporciona el traslape entre las dos funciones de onda y con ello la probabilidad de que pueda ocurrir dicho traslape, o más formalmente, la probabilidad de transición de un estado a otro, una probabilidad de transición que irá variando con el tiempo en virtud de que el término perturbador H1(t) es un operador que varía con el tiempo.
Al igual que como lo hicimos arriba para un sistema de únicamente dos estados, podemos tomar la ecuación de Schrödinger dependiente del tiempo para comenzar nuestro desarrollo:
Damos por hecho nuevamente que la función de onda Ψ puede ser expresada usando las funciones de base del sistema no-pertubado:
En aras de un mayor formalismo y rigor, en lugar de la notación anterior podríamos estar usando la siguiente notación más formalista y rigurosa:
En esto último se hace hincapié en que Ψ(r,t) es una función de onda que depende no solo del tiempo sino de algún sistema tridimensional de coordenadas espaciales, y en ψk(0)(r) se usa el super-índice cero (0) para recalcar que se trata de una función de base no-perturbada mientras que con r se recalca que la función de onda ψ no varía con el tiempo y es únicamente una función de las coordenadas espaciales, ya que representa la parte espacial de la función de onda Ψ. Sin embargo, teniendo esto en cuenta a lo largo del desarrollo, resulta más legible simplificar la notación desechando todo aquello que se sobreentiende, y tal cosa haremos aquí.
Efectuando la substitución de la expansión de Ψ en la ecuación de Schrödinger dependiente del tiempo, se tiene lo siguiente:
Obsérvese que en lo anterior, para mayor simplicidad, se ha introducido la notación de Dirac cambiando la función de onda ψk a un ket ψk en preparación para la formación de los productos bra-ket que será llevada a cabo).
Tomando la derivada parcial de Ψ con respecto al tiempo se tiene (obsérvese aquí que al sobreentenderse que los coeficientes c son funciones de la variable del tiempo, ya no es necesario destacarlos como funciones):
Substituyendo esto último en el desarrollo anterior, se tiene:
A continuación, pre-multiplicamos ambos lados de todo lo anterior, por la izquierda, por el conjugado complejo de la función de onda ψj para obtener lo siguiente:
Concentrando nuestra atención en el primer término (entre los corchetes) en el lado derecho de la igualdad, tenemos una sumatoria cuyo índice k incluye desde luego el caso k.=.j como el caso k.≠.j, lo cual nos permite subdividir la sumatoria como la suma de dos términos: el término solitario para el caso k.=.j, y la sumatoria reducida para todos los demás términos excluyendo el caso k.=.j, y al hacer esto podemos aplicar las propiedades de la ortogonalidad entre las funciones de base:
De este modo, obtenemos la siguiente simplificación (póngase especial atención en los subíndices):
Una cosa parecida podemos hacer en el segundo término en el lado derecho de la igualdad. De este modo, la relación que estamos desarrollando queda simplificada a lo siguiente:
Ahora bien, arriba se dejó en claro que:
Substituyendo ésto en el primer término en el lado izquierdo de la igualdad, de nueva cuenta al aplicar con todo rigor la sumatoria sobre el índice k de la misma se encuentra que por la acción del delta de Kronecker éste se encarga de eliminar todos los sumandos de la sumatoria excepto aquél para el cual k.=.j, produciendo la siguiente simplificación:
El nivel del estado energético que corresponde al estado-j indudablemente está dado por la siguiente relación:
De éste modo, la relación que estamos desarrollando queda simplificada a lo siguiente:
Despejando para la derivada del coeficiente cj con respecto al tiempo, se tiene entonces:
Para mayor simplicidad, si hacemos la siguiente definición de ωjk:
entonces todo se reduce al siguiente resultado fundamental que al igual que en el caso de un sistema de dos estados representa también un sistema de ecuaciones que nos proporcionan los coeficientes c dependientes del tiempo:
Este es un conjunto de ecuaciones completamente equivalente a la ecuación de Schrödinger en el sentido de que permite calcular la dependencia temporal de los coeficientes cj y con ello la dependencia temporal de la función de onda. El conjunto de ecuaciones es exacto, hasta aquí no se ha efectuado ninguna aproximación. Esta manera particular de expresar la ecuación de Schrödinger es conocida como la representación de interacción (o imagen de interacción) que se suma a la imagen de Schrödinger y a la imagen de Heisenberg, todas ellas representaciones o imágenes de evolución temporal. Una observación relevante es que si el término de perturbación H1 se desvanece al ser muy pequeño, entonces todos los coeficientes cj se pueden tomar como coeficientes constantes que no varían con el tiempo:
Esto sugiere emplear una aproximación en la cual los valores iniciales de los coeficientes cj sean insertados en el lado derecho de la ecuación:
y que la dependencia temporal de los coeficientes sea calculada sin tomar en consideración la dependencia temporal implícita en el lado derecho de la ecuación. Como ejemplo de ésto, supóngase que en un tiempo inicial t.=.0 tenemos las siguientes condiciones iniciales que asignan una probabilidad total de certeza al coeficiente c0 y una probabilidad cero a todos los demás coeficientes:
Esto significa que empezaremos con un solo estado inicial que llamaremos estado-0 con eigenfunción de onda ψ0, y que el sistema irá evolucionando hacia varios estados que llamaremos los estados-j. con eigenfunciones de onda ψj. Una solución aproximada para cada uno de los coeficientes cj estará dada por la siguiente relación:
Se recalca que ésto último será válido solo si los valores resultantes para los coeficientes cj son lo suficientemente pequeños para producir únicamente una muy pequeña modificación al ser insertados en el lado derecho de la relación:
Puesto que:
entonces:
ωjk es positivo si ωj.>.ωkHabiéndose dicho que ωjk puede ser un número positivo o un número negativo, ωj0 puede tener cualquiera de ambos signos. En contraste, la frecuencia angular ω de una perturbación externa aplicada al sistema que aparece en un término perturbador como en el ejemplo que se dió arriba:
ωjk es negativo si ωj.<.ωk
y la cual en muchos casos puede ser variada a voluntad en un laboratorio moviendo algunas perillas de algún instrumento, sólo puede tener un valor positivo.
Usando para nuestro desarrollo el término perturbador:
entonces podemos llevar a cabo la integración dada arriba para los coeficientes cj. Previo a ésto, recurrimos a la fórmula de Euler:
con la cual, sumando miembro a miembro ambas igualdades, obtenemos la siguiente relación para el término cosenoidal:
Reemplazando en lo anterior el ángulo θ con ωt, se tiene:
Así pues, la integración procede de la siguiente manera:
con lo cual obtenemos, finalmente:
Obsérvese que se ha resaltado uno de los términos en color rojo, que llamaremos el término antiresonante en anticipación a su eliminación. Es aparente en ésta ecuación que para que haya un aumento apreciable en la probabilidad de que el sistema pueda ser encontrado en un cierto estado de energía, es necesario que uno de los denominadores en la expresión dentro de los corchetes sea muy pequeño. En pocas palabras, para que pueda haber una probabilidad apreciable de transición entre estados de energía debe prevalecer una condición cercana al punto de resonancia (se ponen barras verticales en torno a ωj0 en la condición de resonancia mostrada como un recordatorio de que tomamos el valor absoluto de ωj0 en virtud de que como vimos arriba ωj0 puede ser un número positivo o negativo):
ω ≈ |ωj0|
que podemos concebir gráficamente de la siguiente manera que nos muestra un pico de resonancia:
En la relación obtenida, es obvio que únicamente uno de los dos términos entre los corchetes puede ser resonante, o sea tomar una gran amplitud, cuando se satisface el criterio de resonancia. El otro término representa una pequeña perturbación de alta frecuencia en el estado que usualmente puede ser despreciada en virtud de lo grande del denominador en comparación con lo que ocurre en el denominador del otro término.
A estas alturas es importante recalcar que si bien M puede ser una matriz, también puede no serlo aunque de cualquier forma se le puede seguir considerando como una matriz 1×1 conteniendo un solo elemento. Considérese el caso en el que se tiene una partícula de spin 1/2 sumergida en un campo magnético estático y uniforme B0 y a la cual le aplicamos además un campo magnético oscilante B con lo cual la perturbación indicada en:
puede ser considerada de la forma:
siendo μ el vector momento magnético de la partícula. Resulta obvio que el producto escalar entre los vectores μ y B bajo cualquier sistema de coordenadas que se seleccione producirá no un vector sino un escalar, esto es, un número ordinario, y no una matriz. De cualquier modo, a partir de H1 podemos construír una matriz H1 formando uno a uno los productos bra-ket:
En éste ejemplo específico, el término antiresonante corresponde al hecho de que el campo magnético perturbatorio B está oscilando y no girando en la dirección de la precesión del spin electrónico. El campo magnético oscilante, polarizado en un plano, puede ser descompuesto en dos campos rotatorios, con el otro girando en el sentido opuesto, y estos dos campos son lo que vendría correspondiendo en la relación obtenida arriba tanto al término antiresonante (en color rojo) como al término resonante (en color negro).
Esto es pues lo que nos queda para trabajar:
Para continuar desarrollando, podemos tomar nuevamente la fórmula de Euler:
con la cual usando la misma fórmula podemos eliminar el término cosenoidal para quedar con:
Multiplicando ambos lados por eix/2 tenemos entonces:
o bien, despejando:
Esta es la relación con la cual podemos reemplazar algo como lo que aparece en el lado derecho de la igualdad con lo que se tiene del lado izquierdo de la igualdad. Si dividimos lo anterior entre Δω y efectuamos algunas manipulaciones adicionales, tenemos entonces lo siguiente:
En la relación obtenida, si hacemos la siguiente substitución:
llegamos entonces a ésto:
Definiendo a Δω de la manera siguiente:
entonces la relación se convierte en:
Se ha resaltado entre corchetes y en color azul una función que resulta ser muy conocida entre los matemáticos. Se trata de la función sinc, de la cual hay dos versiones usadas por los matemáticos, la función sinc normalizada y la función sinc desnormalizada:
Obviamente, en la Mecánica Cuántica estamos interesados en la función sinc normalizada de acuerdo a nuestros criterios cuando estamos manejando conceptos relacionados con la probabilidad. Usando el resultado intermedio que acabamos de desarrollar, tenemos pues la siguiente relación para la evaluación de cada uno de los coeficientes cj :
Antes de seguir adelante es necesario repasar el significado físico de los coeficientes ck.(t) que están siendo utilizados aquí, porque frecuentemente esto es causa de confusiones.
Primero que nada, recuérdese de la serie de entradas “Interpretación probabilista de Ψ” que la esperanza matemática o el valor esperado para una observable Q, después de haberse tomado la medición de muchas muestras, está dado por la relación:
Cada coeficiente es lo que nos proporciona la probabilidad de que la observable Q pueda ser encontrada en cierto estado. Tómese en cuenta también que no se trata simplemente de elevar al cuadrado cada coeficiente para obtener la probabilidad respectiva; por definición se tiene que tomar el conjugado complejo de un coeficiente y multiplicarlo por el coeficiente para obtener la norma:
Si queremos obtener la esperanza matemática para la energía promedio de un sistema no-perturbado e independiente del tiempo que está cuantizado en valores discretos de energía, entonces tal cálculo se lleva a cabo mediante la prescripción:
Aquí puede ser de utilidad un ejemplo. Tomaremos el caso de una partícula encerrada herméticamente en una caja impenetrable, considerada también como una partícula ubicada dentro de un pozo de potencial con barreras laterales infinitamente grandes, confinada a moverse en una dimensión a lo largo de la anchura a de la caja. Ya hemos visto previamente que la función de onda eigen para cada estado discreto que puede tener la partícula están dadas por la relación:
Puesto que estas eigenfunciones son ortogonales y están normalizadas, las podemos tomar como funciones de base para expresar en su forma más general la función de onda Ψ(x) que describe al sistema
Necesitamos desde luego alguna función de onda Ψ(x) que será expandida en términos de las funciones de base. Usaremos la siguiente expresión que cumple con las condiciones de acotamiento (o condiciones de frontera) para los extremos de la función de onda que se debe desvanecer justo en las paredes del pozo:
Lo primero que debemos hacer es determinar la constante de normalización A de la manera usual:
De este modo, la función de onda general viene siendo:
El cálculo de los coeficientes requeridos para la expansión en términos de las eigenfunciones de base empieza también de la manera usual:
que en este caso, usando la expresión que tenemos para Ψ(x), se desarrollará de la siguiente manera:
Hay dos tipos de soluciones dependiendo del hecho de que el número cuántico n sea par o impar. Las soluciones pares obviamente se desvanecen más no así las soluciones impares:
De este modo, la función de onda general para la partícula encerrada en una caja unidimensional es la siguiente:
El cálculo del primer coeficiente para el estado fundamental n.=.1 nos produce el siguiente resultado:
Obviamente, hay una probabilidad muy buena de que el sistema sea encontrado en el estado fundamental y no en un estado excitado. El resto de los coeficientes debe cumplir desde luego con la condición de que la suma de probabilidades debe ser igual a la unidad:
Suponiendo que la serie infinita es convergente (¡y debe de serlo!), podemos checar la validez de la última igualdad buscando y substituyendo el valor hacia el cual converge la serie. Para encontrar dicho valor, no es necesario buscar en Internet referencias técnicas sofisticadas o tratados complejos y abtrusos sobre la función Zeta de Riemann, basta con consultar una obra clásica elaborada por un matemático notable del siglo XVII, la obra “De summis serierum reciprocarum” (Sobre las sumas de series de recíprocos) de Leonhard Euler publicada en 1740 y disponible en arXiv, en donde podemos leer una amena e instructiva (muy amena e instructiva en comparación con el lenguaje excesivamente formal y abstracto y a veces confuso empleado en las matemáticas modernas) derivación de la serie:
con lo cual podemos llevar a cabo la siguiente verificación:
Continuando, el valor esperado de la energía del sistema será:
Nuevamente, consultando la referencia arriba citada de Leonhard Euler, encontramos en dicha obra el siguiente resultado:
con lo cual obtenemos:
Sin embargo, y he aquí la fuente de muchas confusiones, los coeficientes que hemos calculado para el ejemplo citado nos dan cada una de las probabilidades de encontrar al sistema en cierto valor energético fijo (o visto de otra manera, que se encuentre en cierto estado con cierto número cuántico). Pero esto no es lo que estamos buscando. Lo que realmente estamos buscando mediante la teoría de las perturbaciones dependientes del tiemo es la probabilidad de transición de un sistema para poder pasar de cierto estado a otro estado diferente.
El asunto que aquí nos ocupa de hecho es más amplio porque se supone que los coeficientes son cantidades que pueden variar con el tiempo, lo cual en un sistema dinámico modifica la distribución de probabilidades conforme va transcurriendo el tiempo, de modo tal que inclusive la definición de la esperanza matemática expresada arriba tiene que ser modificada del siguiente modo para un sistema que varía con el tiempo, o en el caso presente un sistema con una perturbación que varía con el tiempo:
Lo que sigue siendo válido en todo momento es que cada uno de los coeficientes se mantiene acotado en el sentido de que en todo momento la suma de las probabilidades debe ser igual a la unidad, y ésto es algo que no puede ni debe variar con el tiempo (cada uno de los coeficientes individualmente pueden variar, pero la suma total de las probabilidades sigue siendo la misma):
Así pues, retomando el desarrollo que habíamos dejado pendiente para hacer la aclaración hecha arriba, lo que nos interesa no es tanto el valor de cada coeficiente sino la norma (el cuadrado) de cada coeficiente definida de la manera usual, para lo cual necesitamos el conjugado complejo de lo que hemos obtenido arriba:
De este modo, tenemos entonces:
Obsérvese la cancelación efectuada:
La primera conclusión en firme que sacamos de ésto es que cada una de las probabilidades de encontrar una partícula en cierto estado energético varían con el tiempo. Pero estudiando la expresión encontramos algo igualmente trascendente: el cuadrado de la función sinc, cuya gráfica es la siguiente:
Como era de esperarse, la gráfica muestra un pico muy pronunciado en la cercanía de la frecuencia determinada por la condición de resonancia Δω.=.0.
En la relación que hemos obtenido, la dependencia cuadrática en temporalidad para pequeños valores de t (o sea t2) puede parecer algo paradójico, en virtud de que en un fenómeno en el cual los fotones incidentes están induciendo la transición energética de un estado a otro es directamente proporcional (y no cuadráticamente proporcional) al tiempo durante el cual actúa la radiación incidente, mientras que la relación nos dice que es proporcional al cuadrado de éste número. La paradoja se esclarece observando que la radiación (monocromática) que actúa sobre un conjunto de átomos durante un tiempo limitado t es efectivamente un pulso (lo podemos imaginar como un pulso rectangular) de longitud t, y de acuerdo a lo que se estudia en las transformadas de Fourier tal pulso tiene su energía distribuída sobre una banda de frecuencias (y no sobre una sola frecuencia) cuya anchura es del orden del recíproco de la longitud del pulso. Por lo tanto, en un intervalo unitario de frecuencias ubicado al centro de la distribución del espectro de frecuencias, la energía del pulso es proporcional al cuadrado de la longitud del pulso.
El análisis que estamos llevando a cabo supone que se parte de un sistema con las siguientes condiciones dadas arriba, las cuales repetiremos aquí:
En un sistema con tres estados, la situación inicial en el tiempo t.=.0 y la situación después de haber transcurrido un cierto tiempo t puede ser algo parecido a lo que muestran las siguientes dos gráficas:
Supóngase que esto representa un sistema con un millón de moléculas. Al principio, el hecho de que el coeficiente c0 sea igual a la unidad implica que el millón de moléculas están en su totalidad en el estado inicial cero, posiblemente a espera de ser perturbadas por algo así como un rayo de luz o un campo magnético. Un cierto tiempo t después de haber sido perturbado el sistema, el coeficiente c0 ha caído y con ello la población de moléculas que se encontraban en dicho estado. A grosso modo, vemos que:
En efecto, la pertubación ha llevado a cabo una redistribución de las probabilidades. Sólo hay un cincuenta por ciento de probabilidades de encontrar una molécula del sistema en el estado inicial que corresponde al sistema no-perturbado, y el resto de las moléculas pueden estar reubicadas al azar con probabilidades iguales en cualquiera de los otros dos estados que antes estaban vacíos.
En muchas situaciones interesantes e importantes, uno no está interesado únicamente en transiciones hacia un solo estado final j, sino en las transiciones posibles hacia un grupo de estados finales, todos ellos de aproximadamente la misma energía (y por lo tanto todos dentro de lo que en una gráfica podemos distinguir aproximadamente como la zona de la “resonancia”). En una situación así es posible definir una probabilidad de transición del estado-0 hacia los estados-j sumando las probabilidades acumuladas por los estados-j después de un cierto tiempo t:
El problema con ésta definición es que nos dá una probabilidad dependiente del tiempo, y en muchas circunstancias lo que buscamos es una probabilidad independiente del tiempo, sobre todo cuando las cosas se han “estabilizado” (por así decirlo). Esto nos motiva a ampliar la definición anterior de un modo como el siguiente que nos proporciona la probabilidad por unidad de tiempo de que haya ocurrido una transición, siendo una probabilidad independiente del tiempo dada por:
Si dentro de cierto rango de energías se supone que los estados finales del grupo son muchos, lo que se tiene se vuelve tan denso que podemos hablar de lo que se conoce como un cuasi-continuo. Aunque un cuasi-continuo no es lo mismo que un continuo, para fines de cálculo se puede considerar como tal. Las siguientes figuras ilustran mejor la diferencia entre el concepto del cuasi-continuo y el continuo:
En la figura izquierda tenemos varios niveles energéticos con brechas de separación entre cada estado en lo que se supone es un espectro cuantizado de energía, un cuasi-continuo, mientras que en la figura derecha no hay brecha alguna porque cualquier valor energético es posible ya que es un continuo o continuum.
Si se supone que los estados finales de un grupo son muchos y por lo tanto están distribuídos cuasi-continuamente en energía, con n(E) representando el número de estados por rango unitario de energía, la anterior sumación puede ser reemplazada por un proceso de integración como el siguiente:
Al hacer la transición de una sumación a una integración, la variable discreta de energía Ej se puede considerar como una variable continua E, lo cual equivale a decir que Ej.=.E. Del mismo modo, la función n(E) es una función continua, y para cualquier valor arbitrario de E la función n(E) toma un valor numérico cuya altura (en una gráfica de barras verticales) para los cuadrados de los coeficientes cj corresponde a la altura de las líneas verticales más cercanas al valor que se seleccione para E (el “área bajo la curva” de la función n(E) revierte a una gráfica de líneas verticales discretas si la anchura dE de cada barra vertical que forma parte del área se reduce a cero).
Vale la pena clarificar el paso de conversión de la sumación efectuada sobre valores discretos a una integración efectuada sobre valores continuos. Inicialmente empezamos con algo que en una gráfica aparece como líneas rectas verticales de anchura cero:
En la gráfica, cada línea vertical representa una cierta categoría bajo la cual estamos agrupando ciertos “eventos”, y podemos ver que hay un total de cuatro categorías distintas en donde la primera categoría contribuye con 4 eventos, la segunda categoría contribuye con 8 eventos, la tercera categoría contribuye con 10 eventos, y la cuarta categoría contribuye con 6 eventos, para un gran total de 28 eventos. Podemos hablar de una “función discreta” Fi con la cual para cada valor (entero) del sub-índice i que distingue cada categoría le asignamos a Fi el número de eventos que hay en dicha categoría.
Geométricamente hablando, una línea recta tiene una anchura igual a cero, es unidimensional. Aún si en el mismo rango de la figura mostrado arriba hubiera un trillón de líneas verticales, juntas todas formarían también una línea vertical sin anchura alguna. ¿Entonces cómo podemos pasar de algo formado con líneas rectas verticales a algo que tenga un área? La manera más sencilla de efectuar tal cosa es dándole a cada línea vertical una anchura, la misma anchura para todas las líneas verticales, y al hacer tal cosa en lugar de hablar de líneas rectas verticales podemos hablar de barras verticales, cada una de las cuales tiene una anchura. Por conveniencia, la anchura la escogemos de modo tal que sea igual en magnitud a la distancia que hay entre cada línea vertical (suponemos desde luego que todas las líneas verticales en la gráfica son equidistantes, situadas todas a una misma distancia horizontal de las líneas verticales vecinas más cercanas.) Simultáneamente, redefinimos la altura inicial de cada línea vertical como una altura por “unidad de anchura”, esto es, dividiendo la altura de cada barra entre la anchura. Esto nos lleva a una situación como la siguiente:
Al haber multiplicado cada línea vertical por una anchura, dándole a cada línea vertical anchura además de altura, tenemos entonces un área para cada barra formada, un área, rectangular. Obsérvese ahora (en la figura) que en vez de hablar de una “función discreta” Fi hablamos ahora de una función continua f.(x), aunque en realidad no podamos ver ninguna “curva” continua que una suavemente los topes superiores de las barras verticales a menos de que haya una cantidad tan grande de líneas verticales que al hacer la transición nos parezca que hay una “curva” continua, y nos parezca ver también con un buen grado de aproximación lo que podemos llamar un “área bajo la curva”.
Falta desde luego demostrar que ambos conceptos, después de haber hecho la transición hacia la gráfica de barras, producen exactamente el mismo resultado numérico. En los cursos introductorios del cálculo infinitesimal, al llevar a cabo procedimientos de integración a veces se pierde la perspectiva de que en realidad la integración para encontrar el “área bajo la curva” de una función continua no es más que un proceso límite en el cual sumamos una gran cantidad de barras rectangulares verticales puestas debajo de la curva (de hecho, el símbolo “∫” usado para representar una integral en realidad no es más que una letra “S” estirada indicando que se tiene que llevar a cabo una sumación de alta precisión, pero sumatoria finita al fin y al cabo, no una sumatoria infinita).
Calculando el “área bajo la curva” de lo anterior, se tiene lo siguiente:
Vemos que, al sumar las áreas parciales de todas las barras verticales, obtenemos exactamente el mismo resultado que el que se obtiene sumando los valores dados por cada línea vertical en la gráfica de líneas verticales discretas. El “salto” que hemos dado está pues completamente justificado. Obsérvese otra cosa importante: para la transición que hemos hecho del mundo discreto al mundo continuo no importa lo que sea Δx. Puede ser algo como ΔE (energía), Δω (frecuencia angular), Δθ (ángulo), lo que sea, se trata de un asunto de mera conveniencia, siempre y cuando los valores de las alturas de las líneas verticales sean reformulados por unidad de rango usando el mismo sistema de unidades.
Si en la gráfica de barras, aún con muchas barras nos causa algo de incomodidad identificar a f.(x) como función continua cuando hablando en el sentido más riguroso y formal de la palabra no lo es, podemos imaginar a dicha función como una función discontinua en la que de cualquier manera se puede aplicar el concepto de integración si es que estamos dispuestos a “romper” el intervalo de integración en sub-intervalos más breves en cada uno de los cuales sí aplica lo que entendemos por integración al efectuar una sumatoria de las sub-integrales involucradas. Tomando la gráfica de barras anterior:
podemos obtener el “área bajo la curva” de una manera un poco más rigurosa del modo siguiente:
Falta desde luego responder la pregunta más importante: ¿qué ganamos con hacer la transición de una fórmula que hace una sumación sobre valores discretos a su correspondiente en donde efectuamos una integración sobre valores continuos? La ganancia radica en que al hacer tal transición se puede definir una función continua como n(E) que se presta a ser manipulada simbólicamente, aunque al final de cuentas para una simulación numérica con la ayuda de una computadora se requiere revertir a la discretización de la función continua.
En lo que aquí nos ocupa, hemos empezado con líneas verticales cuyas alturas representan las probabilidades dadas por los coeficientes cj separadas equidistantemente la una de la otra por una misma distancia como lo representa la siguiente figura (la línea vertical de color verde representa un estado que aquí identificamos como E29 dentro de una secuencia ordenada de estados:
Nuevamente, multiplicamos cada línea vertical por una anchura, lo cual le dá a cada línea vertical anchura además de altura y por lo tanto un área, rectangular.
Faltó darle arriba a cada línea vertical una anchura tal que cada línea vertical tocará en el borde a sus dos líneas vericales vecinas, pero esto se puede corregir. Si agregamos más líneas rectas verticales, las barras verticales se tocan y la anchura se puede ir haciendo más pequeña a grado tal que aunque no sea una anchura infinitesimal la podamos considerar como tal para nuestros propósitos:
Al juntar todas las barras verticales, lo que tenemos es un área, el “área bajo la curva”, y desde luego una función continua que podemos usar para fines de análisis:
Es momento de volver a la derivación que estábamos llevando a cabo. Metiendo en nuestra nueva definición para lo que entendemos como probabilidad de transición la relación obtenida más arriba para los coeficientes cj:
se tiene entonces lo siguiente:
Repasemos nuevamente la función sinc cuadrática:
Como se resaltó en la figura dada arriba para ésta función, la función sinc cuadrática está caracterizada por tener un pico muy pronunciado más allá de cuyo rango aproximado de valores más prominentes los demás valores de la función no parecen tener mucho peso en la contribución al área total debajo de la curva. Basados en ésto, daremos el paso crítico mediante el cual trataremos al número de estados n(E) por rango de energía como una constante dentro de dicho rango (en donde, por ejemplo, n(E) puede tener un valor más o menos “constante”, algo así como 0.37 u otro valor numérico):
Se sobreentiende que en todo momento Esto la repartición de distribuciones relevantes de los cuadrados de los coeficientes tendrán una repartición que mantiene las líneas verticales equidistantes de sus dos vecinas próximas como se muestra en la siguiente gráfica:
y no una repartición desigual como la siguiente (en el rango destacado por las cinco líneas verticales de color azul, se puede considerar que n(E) se mantiene constante):
La suposición mediante la cual tratamos al número de estados por rango de energía n(E) como una constante es lo que nos permite sacar a dicha constante n(E) fuera de la integral. Haremos también una segunda suposición, la suposición de que:
y por lo tanto:
son esencialmente iguales para todos estados finales contribuyentes, lo cual nos permite sacar también a ésto fuera de la integral, dejándonos con lo siguiente:
En preparación para llevar a cabo la integración de lo que ya se muestra como la integral de una función sinc cuadrática, damos por hecho de que desde el estado-0 se puede llegar a cualquier otro nivel energético E que no sea el nivel energético E0 mediante un salto cuántico representado por la siguiente relación:
Lo anterior supone desde luego que la transición del estado-0 a cualquier otro estado-.j es una transición a un estado que forma parte de un cuasi-continuo que con muy buena aproximación (para un gran número de estados) podemos considerar como un estado continuo, por lo que lo anterior puede escribirse del siguiente modo para dar un poco más de precisión y claridad:
Recuérdese ahora que para la transición del estado-0 a cualquier otro estado-.j la variable ωj0 puede tener signo positivo o signo negativo. Físicamente, el caso:
corrresponde a una absorción de fotón en donde un campo electromagnético transfiere energía al sistema, de modo tal que el sistema experimenta una transición de un estado de menor energía a un estado de mayor energía. Por otro lado, en el caso:
hay una transferencia de energía del sistema al campo electromagnético, en un proceso mejor conocido como emisión inducida o emisión estimulada. Puede vislumbrarse que el mismo campo perturbador que produce una absorción de fotón de un estado del sistema de menor energía provoca la emisión desde un estado de mayor energía con iguales probabilidades.
Siendo E0 un nivel energético constante, al tomar infinitésimos de la relación dada arriba se obtiene lo siguiente:
Entonces, usando la definición dada más arriba para Δω:
se tiene:
Metiendo dentro de la integral, en la substitución del infinitésimo dE tanto la variable del tiempo t así como la constante de Planck ħ, se tiene entonces :
La integral parece ser algo intimidante, porque si llevamos a cabo una integración entre los límites de cero e infinito, o entre infinito negativo e infinito positivo, el alcance de la integración pasa el punto en el cual el denominador toma el valor de cero, resultando en una división por cero. Sin embargo, no hay indeterminación alguna, lo cual frecuentemente se aprende al introducirse el concepto de límite en los cursos de cálculo infinitesimal en donde se ve lo siguiente:
Y de hecho, en cursos más avanzados de cálculo, se demuestra ésto:
En pocas palabras, para evaluar la integral impropia de la función sinc cuadrática, basta con evaluar la integral impropia correspondiente de la función sinc. Llevar a cabo este tipo integración no es algo trivial por tratarse de una integral impropia ya que para x.=.0 el integrando explota hacia el infinito, por lo que es preferible consultar las tablas de integrales en donde si partimos de la integral:
entonces, por ser el integrando una función par (simétrica) se deduce que:
con lo que llegamos finalmente al siguiente resultado:
Podemos darle mayor claridad a lo anterior reconociendo explícitamente en lo anterior que ψ0 es un estado inicial y ψj es un estado final:
Este es uno de los resultados más importantes de la teoría de las perurbaciones dependientes del tiempo, y es conocido en la literatura como la regla de oro de Fermi (aunque en realidad el mérito por haber desarrollado por vez primera la mayor parte de la teoría llegando a una ecuación casi idéntica a la mostrada arriba le corresponde a Dirac). La relación nos dice que para conocer la tasa de transición de un estado a otro todo lo que tenemos que hacer es multiplicar el cuadrado del módulo del elemento matricial de perturbación M entre ambos estados por la densidad de estados en la frecuencia de transición (que aquí hemos simbolizado como ωj0).
En Mecánica Cuántica, la expresión〈φ|ψ〉es interpretada típicamente como la amplitud de la probabilidad de que un estado ψ colapse hacia el estado φ (matemáticamente, ésto es tomado como el coeficiente de la proyección de ψ hacia φ, y es también descrito como la proyección del estado ψ hacia el estado φ). O sea que, por costumbre, la eigenfunción de onda ψ puesta en el ket corresponde a la del estado inicial (que aquí hemos estado identificando como el estado-0), mientras que la eigenfunción de onda φ puesta en el bra corresponde a la del estado final. Ahora bien, a estas alturas nos debe ser de sobra sabido que las eigenfunciones que pertenecen a distintos eigenvalores son ortogonales, en lo que conocemos como la ortogonalidad de las funciones de base:
En base a ésto último, la probabilidad de que un sistema brinque espontáneamente por sí solo de un estado de menor energía ψ0 a un estado diferente de mayor energía ψj debe ser cero. Obviamente, para llevar a un sistema de un estado de menor energía a un estado de mayor energía hay que proporcionar un estímulo (que aquí llamamos perturbación). Pero tal cosa no basta, las eigenfunciones de onda usadas como funciones de base siguen siendo ortogonales, y la probabilidad de que se lleve a cabo tal transición de un estado a otro sigue siendo cero:
Para que pueda pueda haber una probabilidad de transición, obviamente se requiere de algo que pueda “pegar” las dos funciones de onda ortogonales, algo que en cierta forma actúe como una especie de “cemento” que remueva así sea parcialmente algo de la ortogonalidad total que hay entre las dos funciones de onda para estados diferentes. Y ése algo es precisamente el estímulo perturbativo que conecta las eigenfunciones de base ψ0 y ψj a través del elemento matricial Mj0:
con lo cual ya se tiene una probabilidad de transición diferente de cero que es proporcional al cuadrado del elemento matricial en cuestión:
Precisamente en ésto radica el concepto central detrás de la “regla de oro de Fermi”. Cuando tal elemento matricial es diferente de cero, entonces la amplitud de transición es consecuentemente diferente de cero y la probabilidad de que el sistema pueda ser llevado del estado-0 al estado-j será diferente de cero. En ciertos casos, una consecuencia adicional que se obtiene en la derivación de la regla de oro de Fermi es que, además de que el elemento matricial tiene que ser necesariamente diferente de cero para que haya una probabilidad real de que se lleve a cabo una transición, para aquellas situaciones en las cuales la perturbación aplicada al sistema oscile con una frecuencia ω (es lo que se conoce como perturbaciones armónicas o senoidales) la perturbación aplicada tiene que tener un valor cercano a la “frecuencia natural del sistema” ω0, de lo contrario la probabilidad de transición será baja o muy baja, casi indetectable (ésto lo veremos en mayor detalle en las entradas posteriores). Precisamente a ésto se debe la aparición de líneas obscuras en lo que de otro modo sería un espectro continuo, precisamente a ésto se debe la existencia de líneas espectrales.
La filosofía central de la regla de oro de Fermi puede entonces resumirse del siguiente modo:
La probabilidad de que pueda ocurrir una transición de un estado energético a otro estado es proporcional al cuadrado del elemento matricial del término de interacción en el Hamiltoniano que acopla los dos niveles en cuestión. |
Una transición avanzará con mayor rapidez entre más fuerte sea el acoplamiento entre los estados inicial y final. Éstel término “acoplamiento” es lo que tradicionalmente llamamos el “elemento matricial” para la transición, y proviene de la formulación alterna de la Mecánica Cuántica usando matrices en lugar de las ecuaciones diferenciales que se acostumbran utilizar en la Mecánica Ondulatoria de Schrödinger. El elemento matricial puede ser expresado en la forma de una integral en donde la interacción que provoca la transición es expresada como un potencial V que opera sobre una función de onda de un estado inicial. La probabilidad de transición será proporcional al cuadrado de la integral de ésta interacción sobre todo el espacio apropiado al problema: