martes, 11 de agosto de 2009

La matriz momentum como generadora de traslación

Una de las operaciones más elementales que podemos llevar a cabo es la de tomar un objeto cuya posición está ubicada bajo cierto sistema de coordenadas tales como las coordenadas rectangulares Cartesianas, desplazando dicho objeto en cierta dirección e identificando su nueva posición de acuerdo a sus nuevas coordenadas. A modo de ejemplo, en la siguiente figura tomamos un triángulo y lo desplazamos hacia la derecha por una cantidad ε y hacia arriba por una cantidad δ:




Como puede verse en la figura, el triángulo fue desplazado hacia la derecha en ε = 4 unidades, y hacia arriba en δ = 3 unidades.

Si representamos al objeto que es desplazado como un objeto puntual (o bien si tomamos un punto cualquiera de dicho objeto como punto de referencia), las nuevas coordenadas del punto serán:

x’ = x + ε

y’ = y + δ

En la siguiente figura, tenemos un objeto puntual para el cual ε = 2 unidades, y δ = 3 unidades.




Considerando el desplazamiento horizontal exclusivamente, la traslación hacia la derecha puede escribirse como:

x’ = x + ε = x + 2

De este modo, en la física clásica la operación de traslación es una simple operación de sumas (o restas, en el caso de traslaciones hacia la izquierda o hacia abajo) de cantidades escalares.

Si tenemos una Mecánica Matricial para la cual hemos encontrado una relación fundamental, la ecuación de Born, lo lógico es que queramos extender las operaciones de traslación (y rotación) de la mecánica clásica a la Mecánica Matricial. Antes de empezar en esta labor, puede parecer que también aquí todo será cuestión de sumar escalares para llevar a cabo la traslación. Sin embargo, no tardaremos en darnos cuenta de que la cosa no es tan fácil como parece, en virtud de que la posición está representada en la Mecánica Matricial no por un escalar sino por una matriz, la matriz Q, de modo tal que no es posible intentar llevar a cabo algo como lo siguiente:

Q’ = Q + ε

porque una cantidad escalar como ε no puede ser simplemente sumada a una matriz. Y para complicar aún más las cosas, la matriz posición Q ni siquiera es una matriz finita, ¡es una matriz infinita!

Obviamente, tenemos que asociar el número ε que representa la magnitud del desplazamiento con una matriz, digamos I, la matriz identidad. ¿Pero con qué reglas vamos a operar ahora? Lo que queremos definir, matricialmente hablando, es algo que a partir de la matriz Q nos produza una cosa como la siguiente:

Q + εI

Para poder lograr esto empezaremos definiendo, para distancias que consideraremos muy pequeñas (tomando a la cantidad ε como muy pequeña), la siguiente matriz:

I - iεK

así como la siguiente matriz:

I + iεK

PROBLEMA: Despreciando el término que contiene ε2 considerándolo muy pequeño, demostrar que las dos matrices que se acaban de definir arriba pueden tomarse como matrices inversas.

Tomaremos el producto matricial de ambas matrices en el siguiente orden:

(I + iεK)(I - iεK)

Llevando a cabo la multiplicación matricial teniendo en mente la no-conmutatividad del producto de dos matrices, tenemos entonces:

I² - iεIK - iεKI - i²ε²K²

que es igual a:

I - iεK - iεK + ε²K²

reduciéndose a la matriz identidad I tras despreciar el término que contiene a ε². Esto significa que, si hacemos la designación:

U = I - iεK

entonces podemos hacer la siguiente designación tentativa:

U-1I + iεK

Es fácil verificar que si en vez de la operación:

(I + iεK)(I - iεK)

hacemos la operación:

(I - iεK)(I + iεK)

el resultado y la conclusión serán exactamente los mismos.

A continuación, llevaremos a cabo una operación que al principio puede resultar algo curiosa, formando un producto matricial doble. Tomaremos a la matriz posición Q, y la pre-multiplicaremos por la matriz U-1, tras lo cual post-multiplicaremos lo que resulte por la matriz U:

U-1QU = (I + iεK)Q(I - iεK)

Trabajando sobre el lado derecho de la igualdad matricial, las simplificaciones nos van llevando a lo siguiente:

(I + iεK)(Q - iεQK)

Q - iεQK + iεKQ + ε²KQK

Q - iε(QK + KQ) + ε²KQK

Despreciando el término que contiene ε², y haciendo:

QK + KQ = iI

entonces todo se reduce a:

Q + εI

Esto resulta apetecible, porque si consideramos a ε como una distancia “infinitesimal” (muy pequeña, pero medible), habiendo empezado de las matrices U y U-1 hemos obtenido el equivalente de una traslación. También aquí es fácil verificar que si en vez de hacer la operación:

(I + iεK)Q(I - iεK)

hacemos la operación:

(I - iεK)Q(I + iεK)

el resultado y la conclusión serán exactamente los mismos.

Naturalmente, estamos interesados no en desplazamientos infinitesimales, sino en desplazamientos finitos. ¿Y cómo podemos extender lo que hemos obtenido para que sea aplicable a desplazamientos finitos? Pues simplemente haciendo una composición de desplazamientos, en el entendido de que si una vez que hemos llevado a cabo un desplazamiento infinitesimal repetimos el mismo procedimiento produciendo otro desplazamiento infinitesimal, y tras esto otro, y otro, y otro, la acumulación de desplazamientos infinitesimales nos resultará en un desplazamiento finito. Para obtener resultados que sean congruentes con los resultados obtenidos arriba, se requiere que la segunda composición quede especificada de la siguiente manera:

(I + [iε/2]K)(I + [iε/2]K)Q(I - [iε/2]K)(I - [iε/2]K)

que viene siendo lo mismo que:

(I + [iε/2]KQ(I - [iε/2]K

y que podemos simbolizar simplemente como U-1QU.

Expandiendo los exponenciales matriciales, tenemos por un lado:

U-1 = I + iεK - (1/2) ε²K²

y por el otro:

U = I - iεK - (1/2) ε²K²

PROBLEMA: Despreciando el término que conteniene ε4, demostrar que las matrices U y U-1, como se han definido arriba pueden tomarse como matrices inversas.

La demostración se puede llevar a cabo multiplicando ambas matrices ya sea en el orden U-1U o en el orden UU-1. Lo haremos en el orden U-1U.

U-1U = {I + iεK - (1/2) ε²K²} {I - iεK - (1/2) ε²K²}

Desarrollando el producto:

U-1U =______________________
I{I - iεK - (1/2) ε²K²} + iεK{I - iεK - (1/2) ε²K²}
- (1/2) ε²K²{I - iεK - (1/2) ε²K²}

U-1U =______________________
I·I - iεI·K - (1/2) ε²I·K² + iεK·I - i²ε²K² - (1/2) iε3K3}
- (1/2) ε²K²·I + (1/2) iε3K3 + (1/4) ε4K4

Despreciando el último término que contiene a ε4, tenemos entonces que todos los demás términos se cancelan en pares excepto el primero, I·I = I , con lo cual:

U-1U I

y las matrices U-1 y U pueden tomarse, con buen grado de aproximación, como inversas.

Veamos ahora lo que obtenemos si llevamos a cabo el siguiente producto matricial doble, pre-multiplicando a la matriz Q por la matriz y post-multiplicando lo que resulte por la matriz U, o sea:

U-1QU

Tenemos entonces lo siguiente:

{I + iεK - (1/2) ε²K²} Q {I - iεK - (1/2) ε²K²}

Llevando a cabo el doble producto matricial, y simplificando un poco conservando los términos que contienen ε y ε² y despreciando los términos que contienen ε3 y ε4, obtenemos el siguiente resultado:

Q - iε(QK - KQ) - (1/2) ε² {(QK - KQ)K - K(QK - KQ)}

Si lo que queremos para que el resultado final de este doble producto matricial sea

Q + εI

entonces todo lo que tenemos que hacer es poner:

QK - KQ = iI

y al hacer tal cosa el tercer término del doble producto matricial se vuelve cero.

Lo que hemos llevado a cabo significa que, usando las matrices U-1 y U tal y como se han definido arriba y despreciando los términos pequeños como ε3 y ε4, tenemos a la mano el equivalente matricial de una operación de traslación:

U-1QU = Q + εI

Pudiera objetarse que, por la forma en la que se han definido las matrices U-1 y U, el resultado obtenido no es un resultado exacto sino una mera aproximación, o sea:

U-1QUQ + εI

Para responder a la objeción, podemos llevar la composición de traslaciones infinitesimales al siguiente paso, o sea:

(I+ [iε/3]K)(···)(I+ [iε/3]K)Q(I-[iε/3]K)(···)(I-[iε/3]K)

que viene siendo lo mismo que:

(I + [iε/3]K)3Q(I - [iε/3]K)3

Esto lo podemos generalizar de la siguiente manera:

(I + [iε/n]K) n Q (I - [iε/n]K) n

para cualquier valor del exponente n.

En este punto, resulta provechoso recordar unas de las definiciones del número e, la base de los logaritmos naturales, dadas en base al concepto del límite:


La segunda definición se puede “estirar” para obtener una cantidad numérica eM obtenida a base de elevar exponencialmente el número e a dicha cantidad, y se puede “estirar” aún más para obtener la definición de una función exponencial basada en el concepto del límite:


Lo último, una función exponencial escalar continua F(a), se puede utilizar como base para obtener la siguiente definición matricial (en la segunda línea simplemente se ha agregado el número imaginario i):


Se puede verificar que mediante esta definición usando el concepto de límite iremos obteniendo los mismos términos que los que obtendríamos utilizando una expansión de la función exponencial recurriendo a una serie de Taylor. Y del mismo modo:


Esto último debe aclarar la razón del por qué hemos estado construyendo los factores matriciales previos en la forma en la cual los hemos estado construyendo.

Así pues, no hay que batallar mucho para dar con la respuesta que estábamos buscando, ya que tanto la matriz U-1 como la matriz U por la forma en la cual las hemos estado definiendo son el resultado del desarrollo de una función matricial exponencial. Ya vimos previamente al tratar el tema de las “Funciones matriciales” cómo dada una matriz A es posible definir una función matricial del tipo:

f(A) = eA

recurriendo para ello a las series de Maclaurin. Y ha llegado aquí el momento de poner dichas funciones matriciales en práctica. Esto nos trae a lo que realmente estábamos buscando desde un principio: puesto que un operador U se aplica en forma multiplicativa (y no aditiva) sobre aquello en lo cual está operando (por ejemplo, Uv, operando sobre el vector v, o también una transformación como U-1vU), y puesto que los desplazamientos a lo largo de un mismo eje coordenado son aditivos (2 metros más 5 metros = 7 metros), lo que verdaderamente necesitamos es un operador de tipo exponencial que nos permita hacer algo como lo siguiente tratándose de dos traslaciones a1 y a2 que queremos sumar:


Al llevar a cabo una traslación, hemos dado por hecho que el momentum P, o mejor dicho, la matriz momentum P, no cambia. En pocas palabras:

U-1PU = P

Comparando este requerimiento con los cálculos que hemos llevado a cabo para la matriz posición Q, encontramos que sólo es posible lograr tal cosa cuando:

PK - KP = O

siendo O la matriz cero.

Ahora bien, si en la Mecánica Matricial la posición Q y el momentum P están representados por matrices que están relacionadas entre sí a través de la ecuación de Born:

QP - PQ = (ih/2π)I = iħI

entonces los cambios en estas matrices que correspondan a los cambios de la coordenada de la posición Q deben estar relacionados mediante la siguiente definición:

K = P

Esto lo podemos verificar rápidamente tanto para la segunda relación:

PK - KP = P(P/ħ) - (P/ħ)P = P²/ħ - P²/ħ = O

como para la primera obteniendo la relación de Born:

QK - KQ = iI

Q(P/ħ) - (P/ħ)Q = iI

QP - PQ = iħI

De este modo, la matriz del momentum desempeña dos papeles importantes. El primero, desde luego, es representar el momentum del objeto en la dirección de la coordenada a lo largo de la cual se está moviendo el objeto. Y el segundo, proporcionarnos la matriz K que utilizamos para efectuar los cambios en las matrices que representan a la posición y el momentum que correspondan a los cambios en la coordenada de la posición Q, o sea, una traslación.

Si la matriz U ha de venir de una función matricial exponencial que nos genere los términos que se han mostrado para dicha matriz, entonces haciendo ε = a para representar el desplazamiento a a lo largo de una coordenada dicha función exponencial no puede ser otra más que:

U = e-iaK

o bien, reemplazando a la matriz K por el valor definitorio que le hemos encontrado:

U = e-iaP

Este es el operador matricial unitario utilizado para generar un desplazamiento en una cantidad a. Y nos confirma a la matriz momentum P como la matriz generadora de una traslación espacial.

La matriz unitaria inversa será, naturalmente:

U-1 = eiaP

y la operación de traslación quedará definida como:

U-1QU

En el caso de que el movimiento de traslación se lleve a cabo a lo largo de la coordenada-x, podemos agregar sub-índices para hacer más claro el hecho:


Lo que hemos logrado puede ser extendido fácilmente a tres dimensiones, considerando el hecho de que las traslaciones en diferentes direcciones son conmutativas. El cambio en la coordenada de la posición sobre el eje-x está representado por la matriz Qx que será trasladada a:

Qx + εI

mientras que las matrices Qy y Qz que representan las coordenadas de la posición en las direcciones del eje-y y del eje-z no cambian, del mismo modo que las tres matrices Px, Py y Pz que representan al momentum tampoco cambian. En tal caso:

Ux-1QxUx = Qx + εI

Ux-1QyUx = Qy

Ux-1QzUx = Qz

Ux-1PxUx = Px

Ux-1PyUx = Py

Ux-1PzUx = Pz

La validez de estos resultados que hemos obtenido aquí depende de qué tanto podamos confiar en la aserción que se ha hecho arriba de que las matrices U-1 y U definidas en un principio como:

U = I - iεK - (1/2) ε²K²

y como:

U-1 = I + iεK - (1/2) ε²K²

puedan tomarse, “con buen grado de aproximación, como inversas”. No basta con considerarlas “aproximadamente inversas” despreciando los términos de orden superior tales como ε3 y ε4, queremos generalizar los resultados afirmando que las matrices U-1 y U son, efectivamente, inversas, en el pleno sentido de la palabra, y no “aproximadamente inversas”. Para lograrlo, recurrimos a un importante resultado válido para dos cantidades X y Y que no sean conmutativas (como ocurre con las matrices) conocido como el lema Baker-Hausdorff, también conocido como el lema Baker-Campbell-Hausdorff utilizado con bastante frecuencia dentro de la Mecánica Matricial:


El resultado obtenido será el mismo ya sea que se tome el producto exYe-x ó e-xYex, lo importante es que ambos factores exponenciales en el término tengan sus signos opuestos. Obsérvese que esta fórmula no es una aproximación, es una igualdad. La fórmula puede ser probada mediante una técnica matemática conocida como la inducción paramétrica que a su vez es una aplicación del conocido procedimiento de prueba conocido como inducción matemática. El procedimiento implica definir la siguiente función:


tomando tras esto la derivada de la función con respecto a λ, o sea df/dλ, considerándose como objetivo el llegar a algo como lo siguiente:

df/dλ = [X, f(λ)]

Hecho esto, se lleva a cabo la determinación recursiva de los coeficientes resultantes de la expansión de la serie de Taylor alrededor de λ=0, expresándolos en términos de conmutadores anidados, tras lo cual se evalúa lo obtenido para λ= 1, o sea f(1), lo cual produce el resultado deseado. La demostración queda formalizada cuando al haber obtenido el término general de la expansión para un exponente de k=n, se demuestra que a partir de este término se puede obtener el siguiente término esperado para k=n+1. Siendo este procedimiento algo laborioso alejándonos de nuestro objetivo central que es entender la física del asunto, aceptaremos el resultado tal y como nos lo dan los matemáticos.

Adaptando la fórmula del lema Baker-Hausdorff a la notación que hemos estado utilizando para la representación de matrices, tenemos la siguiente relación ampliamente utilizada en la Mecánica Cuántica:


Anteriormente, se había hecho la aserción de que U-1U = I, despreciando los términos de orden superior tales como ε3 y ε4 en la “demostración” de dicha aserción. Esto mismo lo podemos demostrar rigurosamente, sin aproximaciones, haciendo M = I en la fórmula de Baker-Hausdorff. El primer término de la sumación será sin duda alguna la matriz M. El segundo término se eliminará convirtiéndose en la matriz cero, en virtud de que:

iλ[X, I] = iλ(XI - IX) = iλ(O - O) = O

Siendo el conmutador [X, I] igual a la matriz cero O, el tercer término automáticamente se nulifica al aparecer este conmutador dentro del conmutador del tercer término de la sumación:

(i²λ²/2!)[X, [X, I] ] = (i²λ²/2!)[X, O] ] = (i²λ²/2!)(O) = O

Del mismo modo, esto nulifica automáticamente al cuarto término de la serie en virtud de que:

[X, [X, [X, I] ]] = [X, O] = O

De este modo, cada término de la sumación irá nulificando al término que le sigue, nulificándose todos en su totalidad hasta el mismo infinito. Se concluye entonces que:

U-1U = I

dado ya como una igualdad y no como una aproximación.

PROBLEMA: Demostrar, recurriendo a la ecuación de Born:
[Q, P] = iħI

que si:

U = e-iaP

entonces con la ayuda de la relación Baker-Hausdorff se tendrá el resultado:

U-1QU = Q + aI

confirmándonos a la matriz del momentum P como la generadora del movimiento de traslación a lo largo de una coordenada.

Si tomamos U = e-iaP, con lo cual U-1 = eiaP, entonces la operación matricial U-1QU viene siendo:

U-1QU = eiaPQe-iaP

Haciendo en la relación Baker-Hausdorff:

λ = a/ħ

M = Q

X = P

tenemos entonces lo siguiente:


Para la evaluación del tercer término, se tiene lo siguiente:

[P, [P, Q]] = [P, -iħI] = -iħP + iħP = O

con lo cual el tercer término se convierte en una matriz cero. Este resultado implica que, para el cuarto término de la sumación, se tendrá:

[P, [P, [P, Q]]] = [P, [P, O]] = [P, O] = O

con lo cual el cuarto término se convierte también en una matriz cero. Esto significa que, tomando la relación de Born como válida:

eiaPQe-iaP = Q + aI

siendo dado este resultado no como una aproximación sino como una igualdad matemática matricial, confirmándonos además a la matriz momentum P como la generadora de movimientos de traslación.

En la ecuación de Born:

QP - PQ = iħI

la matriz Q que representa a la posición y la matriz P que representa al momentum desempeñan en cierto modo papeles simétricos. Si la matriz del momentum P puede servir como el generador del operador de traslación e-iaP para producir traslaciones, o sea desplazamientos en la matriz Q a lo largo de un eje coordenado, esto nos puede llevar a sospechar en la posibilidad de que a su vez la matriz posición Q pueda servir a la vez como generador de un operador que sea capaz de producir cambios en la matriz del momentum, o sea cambios en el momentum. Siendo el momentum igual al producto de la masa por la velocidad, P = mV, esto equivale a considerar la posibilidad de que la matriz Q pueda servir como generador para producir cambios en la velocidad suponiendo que la masa permanezca constante con los cambios en la velocidad (si tomamos en cuenta los efectos relativistas de la Teoría Especial de la Relatividad, esto desde luego nos viene a complicar el asunto sobremanera al requerirse una Mecánica Matricial Relativista que trataremos de evitar aquí). Clásicamente, si la posición de un objeto moviéndose a lo largo de una coordenada-x a una velocidad v es x0 en un tiempo t = 0, un cierto tiempo después su posición será:

x = x0 + vt

y si su velocidad es v-ξ entonces la coordenada de la posición será un cierto tiempo después:

x0 + (v - ξ) t = x0 + vt - ξt =x - ξt

siendo este tipo de transformaciones clásicas (no-relativistas) conocidas como transformaciones de Galileo. Matricialmente, si Q representa a la posición en un tiempo t = 0, la matriz que representará a la coordenada de la posición un tiempo después será:

Q = Q + Vt = Q + (P/m) t

Considerando valores infinitesimales de velocidad ξ, podemos llevar a cabo un análisis como el que hicimos para obtener el operador exponencial de traslación, acumulando los cambios infinitesimales para obtener un cambio finito y medible. Esta es la manera general en la cual obtenemos este tipo de operadores en la Mecánica Matricial.

Si podemos llevar a cabo un movimiento de traslación en la Mecánica Matricial sobre una matriz cuántica Q que representa a la posición, esto nos debe llevar a sospechar de inmediato que también deberíamos de ser capaces de poder llevar a cabo una rotación. Pero este resulta ser un hueso más difícil de roer, porque nuestra experiencia previa en las matrices de rotación ordinarias (finitas) tal y como se utilizan en la mecánica clásica (aplicando una matriz de rotación R para girar un vector v produciendo un vector v’ que apunta en otra dirección) requieren que la matriz R utilizada para producir la rotación deje de ser una matriz diagonal. E inevitablemente surgirá otra duda: ¿cuál debe ser, en todo caso, la matriz generadora de una rotación, algo para lo cual la matriz del momentum P ya no nos sirve? Esto nos llevará invariablemente a inspeccionar más a fondo todo lo que tiene que ver dentro la Mecánica Matricial con esa cantidad que llamamos el momento angular.