Originalmente, las matrices de Pauli fueron construídas suponiendo que las matrices que representan el momento angular del spin satisfacen las mismas relaciones de conmutación que las matrices que representan el momento angular orbital (relaciones de conmutación de Born). Como ya lo vimos, estas relaciones de conmutación fueron obtenidas de las fórmulas para el momento angular orbital en términos de la posición y el momentum y las relaciones de conmutación para las matrices que representan a la posición y al momentum. Las matrices de spin fueron descritas por Pauli en un trabajo publicado en 1927. En ese mismo año, John von Neumann y Eugene P. Wigner demostraron que las relaciones para el momento angular corresponden a las características de matrices que representan al grupo de rotaciones. Esto les dá a las relaciones de conmutación una interpretación nueva y fundamental que resulta ser independiente de la posición y el momentum. No resulta muy osado afirmar que el descubrimiento de la relación estrecha que existe entre la Teoría de Grupos y las matrices que representan el grupo de rotaciones y los operadores de la Mecánica Cuántica está a la par con el descubrimiento de la ecuación de onda de Schrödinger. Para Eugene Wigner, entrenado como ingeniero químico y habiendo estudiado las simetrías existentes en las estructuras cristalinas, resultaba “muy natural observar” las enormes similitudes que hay entre las estructuras matemáticas desarrolladas por Heisenberg y Max Born y las simetrías estudiadas dentro de la Teoría de Grupos, buscando entonces un significado más profundo a todo este asunto. Wigner y von Neumann habían sido compañeros desde los tiempos de la escuela preparatoria en Hungría, y Wigner consultaba a von Neumann cuando necesitaba ayuda en problemas matemáticos. En este caso, von Neumann proporcionó los conocimientos del trabajo que ya había sido desarrollado previamente en la representación de grupos mediante matrices.
La Teoría de Grupos, que es en esencia las matemáticas de la simetría, y la cual en cierto modo puede ser considerada como “matemáticas sin números”, fue desarrollada inicialmente por el francés Evariste Galois, el cual puso los últimos detalles a su obra un día antes de perder su vida en un duelo. El trabajo de Galois, que era aplicable a grupos con una cantidad finita de elementos, fue ampliado posteriormente para el estudio de grupos con una cantidad infinita de elementos, sobre todo aquellos en los cuales el elemento del grupo contiene uno o más parámetros que pueden variar en forma continua sobre cierto rango, dando origen a un continuo (o continuum) de elementos. Quien tomó la iniciativa para llevar a cabo el estudio de este segundo tipo de grupos fue el matemático noruego Sophus Lie.
Tal vez resulte difícil creer a los principiantes en el estudio de la Teoría de Grupos que algo de lo cual ha brotado tanta literatura de carácter tan sofisticado provenga de tan solo cuatro requisitos fundamentales, pero ésta es una realidad que no se discute. Para poder tener un grupo, por principio de cuentas tenemos que tener como punto de partida un conjunto de elementos (los cuales pueden ser números enteros, pero en principio pueden ser cualquier otra cosa, por ejemplo, matrices):
{a, b, c, d, e, f , ... }
Se debe enfatizar aquí que éste no es un grupo de elementos. Es tan solo un conjunto de elementos. Para que pueda ser definido como un grupo, debe haber primero que nada algún tipo de operación binaria que se pueda llevar a cabo entre dos elementos cualesquiera del grupo. Designaremos esta operación binaria mediante el símbolo ‘ʘ’ (este símbolo puede representar algo como una suma, una multiplicación, o inclusive algo más abstracto como una rotación de 45° en sentido contrario al giro de las manecillas del reloj). Aunque no es común darle nombre alguno a estos símbolos curiosos inventados al por mayor dentro en las matemáticas abstractas, con el fin de poder “leer” mentalmente algo como dʘb se le puede dar al símbolo ʘ un nombre descriptivo tal como “círculo-punto”. Una vez definida la operación binaria, se requiere que todas las operaciones binarias entre dos miembros cualesquiera del conjunto de elementos produzcan un elemento que también sea miembro de dicho conjunto. Esta es la condición de cerradura. Si reunimos todas las operaciones binarias posibles, por ejemplo:
aʘb = d , bʘa = e , cʘd = a , etc.
podemos intuír que dichas operaciones pueden ser resumidas en una “tabla” de operaciones. Obsérvese que, en las dos operaciones binarias que combinan a los elementos a y b en este ejemplo que se acaba de poner, se obtienen resultados diferentes dependiendo del orden en el cual se efectúen las operaciones, ya sea como aʘb que dá como resultado d, ó como bʘa que dá como resultado e. La conmutatividad no es un requisito para que un conjunto de elementos pueda ser clasificado como un grupo.
Dentro del grupo, debe de haber además un elemento identidad, el cual pre-multiplicado o post-multiplicado por cualquiera de los elementos del conjunto debe dejar al elemento intacto. El elemento identidad es equivalente al número cero en la suma aritmética o al número 1 en la multiplicación aritmética o a la matriz identidad I, aunque aquí se le está dando un alcance mucho más amplio. Designando al elemento identidad como I e incluyéndolo en el conjunto de elementos, tenemos entonces el siguiente conjunto:
{ I, a, b, c, d, e, f , ... }
De este modo:
aʘI = a , bʘI = b , Iʘd = d , etc.
Otro requisito fundamental para que un conjunto de elementos pueda ser clasificado como un grupo es que todos y cada uno de los elementos g del grupo deben poseer un inverso g-1 tal que al llevarse a cabo una operación binaria con dicho elemento inverso g-1 se obtendrá el elemento identidad I del grupo.
Y por último, la propiedad asociativa debe ser válida para cualquier combinación de operaciones que se tome de los elementos de un grupo, esto es:
aʘ(bʘc) = (aʘb)ʘc
Resumiendo, las cuatro propiedades fundamentales de todo grupo son las siguientes:
Asimismo, definimos al orden de un grupo simplemente como la cantidad de elementos de los que consta el grupo, acostumbrándose utilizar el símbolo |G| para denotar el orden de un grupo. Con fines didácticos, es común representar todos los resultados de las operaciones binarias de un grupo que tenga una cantidad pequeña de elementos mediante una “tabla” conocida como “tabla de multiplicación” por estar inspirada en dichas tablas, aunque la operación binaria en un grupo ciertamente no está limitada a la operación de multiplicación entre dos números. Las tablas utilizadas para representar las operaciones de los elementos de un grupo resultan útiles como ayuda didáctica para comprender algunas de las ideas esenciales que se están intentando transmitir. Desafortunadamente, conforme va creciendo el número de elementos del grupo, el tamaño de la tabla va creciendo también hasta convertirse en algo que no se presta a su manejo y mucho menos a su construcción, y es aquí cuando por necesidad se vuelve necesario recurrir al simbolismo notacional puro echando mano incluso de las capacidades de cómputo y almacenamiento de datos de las computadoras, habiendo grupos con una gran cantidad de elementos que son capaces de someter a una prueba durísima de tolerancia inclusive a varias de las supercomputadoras más poderosas de hoy en día. Existen recursos tales como el programa educativo gratuito Group Explorer que permiten construír las “tablas de multiplicacion” para grupos medianamente grandes pero manejables en el monitor de una computadora de escritorio.Los postulados de un grupo
(1) Si a y b son dos elementos cualesquiera, entonces el producto aʘb también es un miembro del conjunto.
(2) La operación binaria (ʘ) del grupo es asociativa.
(3) Debe existir un elemento identidad I tal que Iʘa.=.aʘI.=.a para cada elemento del conjunto.
(4) Debe existir un inverso o un recíproco a-1 para cada elemento a tal que aʘa-1 = a-1ʘa = I.
PROBLEMA: Dado un grupo {A,B,C,D,E,F} cuya “tabla” de operaciones es la siguiente:
determínese cuál es el elemento identidad del grupo, y ubíquense dentro de la tabla los elementos que son inversos a cada elemento del grupo.
En este tipo de tablas, el orden de los factores en la operación aʘb es usualmente tomado como “renglón-columna”, de modo tal que DʘC.=.E en la tabla de arriba. El elemento identidad del grupo es indudablemente el elemento A, como podemos verlo resaltado en color azul claro en el renglón y en la columna de la tabla en las operaciones que lo involucran:
Puesto que el elemento identidad A se debe poder obtener como un resultado para todos los elementos del grupo, podemos destacar a dicho elemento identidad dentro de la tabla con lo cual los elementos inversos resultan obvios:
De este modo, C es el elemento inverso de B y a su vez B es el elemento inverso de C; mientras que los elementos D, E y F son sus propios inversos. En el siguiente gráfico animado podemos ver en forma alternada las dos tablas previas:
Para demostrar que lo que se tiene es verdaderamente un grupo, es necesario comprobar que la propiedad distributiva se cumple en todos los casos para todas las combinaciones posibles, lo cual resulta algo más laborioso. El lector puede verificar por sí mismo que dicha propiedad se cumple tomando algunas combinaciones específicas de la tabla. Obsérvese que en este grupo la operación binaria no es conmutativa, ya que mientras que BʘD.=.E, se tiene que DʘB.=.F. Teniendo el grupo seis elementos, el orden del grupo es |G|.=.6. Como la tabla lo muestra, ningún elemento puede aparecer repetido dentro de una tabla a lo largo de un renglón o a lo largo de una columna, sólo puede aparecer una ocasión. Esto último es cierto para cualquier grupo.
Como muestra de otro grupo, del tipo de grupos conocidos como grupos cíclicos, en los cuales usamos la operación de adición aritmética (+) pero en una base numerica que no es la base decimal y en la cual una vez que se alcanza la capacidad posible de dígitos sencillos según lo permita la base se vuelve a iniciar el conteo con una nueva ronda ascendente de dígitos sencillos, se muestra el siguiente grupo cíclico C5, mostrándose también en secuencia animada la identificación del elemento identidad que en este caso es el entero cero, así como los inversos de cada elemento identificados por la vía del mismo elemento identidad que aparece dentro de la tabla:
Obsérvese que, en este caso, para dos elementos a y b cualesquiera de la tabla, se tiene que a+b.=.b+a, o sea que la operación binaria es conmutativa. Cuando esto ocurre (y no es un requisito que lo sea para un grupo) el grupo es conocido como un grupo Abeliano, en honor del matemático noruego Niels Henrik Abel.
Otro ejemplo de un grupo no-trivial es el 4-grupo de Klein, conocido también como el vierergruppe (la palabra vier en Alemán significa “cuatro”), mostrado en el siguiente gráfico animado:
En este caso y a diferencia del grupo cíclico anterior, la operación de “adición” ni siquiera es clasificable como una adición aritmética; véase cómo la operación 3+1 produce 2, de modo tal que aquí los números ni siquiera pueden interpretarse como números, deben ser interpretados como meros símbolos que representan alguna otra cosa, tal vez matrices.
Aun otro ejemplo de grupos lo son los grupos simétricos, los cuales son en realidad grupos de permutación, clasificados genéricamente bajo el grupo simétrico Sn en donde n es el grado del grupo (las permutaciones que se pueden llevar a cabo). El cubo de Rubik puesto al principio de esta entrada es un ejemplo de un grupo de permutación. El conjunto subyacente de elementos que está siendo permutado son los subcubos en colores del cubo completo. Cada una de las rotaciones de alguna de las caras del cubo constituye una permutación de las posiciones y las orientaciones de los subcubos. Tomadas en conjunto, las rotaciones forman un conjunto generador, el cual a su vez genera un grupo mediante la composición (aplicación sucesiva) de estas rotaciones. Para la representación de los elementos de los grupos simétricos, hay dos tipos de notación:
1) La notación de permutación, que es intuitiva y no requiere de muchas explicaciones, en la cual la posición original de los elementos se escribe en el primer renglón y la posición de los elementos tras la(s) permutación(es) se escribe en el segundo renglón:
2) La notación cíclica, la cual requiere de una manera algo peculiar para poder leerse como lo muestra el mismo ejemplo de arriba escrito en notación cíclica:
Se pueden llevar a cabo permutaciones compuestas (sucesivas) tanto en notación de permutación como en notación cíclica. Para denotar una composición de permutaciones, se puede utilizar un símbolo como “o”. Hay que tener presente que al hacerse tal cosa, el orden de operaciones se lee de derecha a izquierda. Así, para la operación de permutación fog, primero se efectúa la permutación g y después se efectúa la permutación f.
PROBLEMA: Dadas las siguientes dos operaciones de permutación:
obténgase la permutación compuesta fog.
Usando notación de permutación en vez de notacion cíclica, el problema se puede resolver de una manera directa mediante el siguiente procedimiento, llevando a cabo primero la permutación g y tras esto la permutacion f (la respuesta final se escribe usando el orden inicial de objetos y el orden final de objetos remarcados en las cajas con los bordes de color ciano y gris):
En el caso del grupo simétrico de grado n.=.3 (así es como se designa a los grupos simétricos, siendo el grado n el número de elementos que posee el grupo), S3, para el cual hay seis permutaciones posibles que se pueden representar de la siguiente manera usando notación cíclica:
α1 = i (identidad)____α2 = (1,2))___α3 = (1,3)
α4 = (2,3)____α5 = (1,2,3)____α6 = (1,3,2)
Usando de nueva cuenta el símbolo “o” para denotar una composición de permutaciones, pero esta vez en notación cíclica, podemos escribir expresiones como la siguiente que resultan útiles para la construcción de tablas:
α1oα3 = (1,2)o(1,3) = (1,3,2) = α6
Como muestra de un grupo más elaborado aún, a continuación se muestra un grupo que consta de 24 elementos (aquí se vuelve necesario ampliar la imagen para poder apreciar los detalles de la tabla):
El lector podrá comprobar de inmediato en esta tabla que el elemento identidad es e. Y buscando las instancias de e dentro de la tabla, podrá determinar cuál es el inverso de todos y cada uno de los elementos de este grupo.
Un descubrimiento importante desde los inicios de la Teoría de Grupos fue el darse cuenta de que dentro de un grupo también puede haber subgrupos. Un subgrupo H es un subconjunto de los elementos de un grupo G que en cierta forma es “autosuficiente”, ya que cumple con todos los requisitos para poder ser clasificado como un subgrupo. No todos los subgrupos son iguales, hay unos que son más importantes que otros, como lo son los grupos normales.
Tomando en cuenta que el grupo de simetría Sn mencionado arriba debe contener todas las combinaciones posibles de permutaciones para cierta cantidad n de objetos, esto explica el significado del:
teorema de Cayley: Todo grupo finito G es isomorfo (posee la misma forma tras llevarse a cabo un simple cambio de notación) a un subgrupo del grupo simétrico.Otro concepto importante dentro de la Teoría de Grupos es el concepto del grupo cociente o grupo factor, el cual toma prestada de la aritmética la noción de factorización para “descomponer” un grupo G en subgrupos tales que en cierta forma sub-dividen al grupo mayor en algo que vagamente pudiera compararse con la factorización llevada a cabo con números. Cuando no es posible factorizar un grupo en subgrupos, se tiene entonces lo que se llama un grupo simple. Los grupos simples pueden ser vistos como los bloques con los cuales se construyen todos los grupos finitos del mismo modo que los números primos construyen todos los números naturales.
Considérese un subgrupo H con elementos hi, y un elemento p del grupo mayor G que no forme parte del subgrupo H. Entonces ghi y hig no forman parte del subgrupo H. Los conjuntos generados por:
phi_(i = 1, 2, 3, ...)___y___hip_(i = 1, 2, 3, ...)
son conocidos como trasladados (la palabra inglesa para este concepto es cosets), el primero siendo un trasladado izquierdo del subgrupo H, y el segundo siendo un trasladado derecho del subgrupo H. Se puede demostrar (suponiendo lo contrario y llegando a una contradicción) que el trasladado de un subgrupo tiene la misma cantidad de elementos que la cantidad de elementos que hay en el subgrupo. Generalizando este resultado, podemos expresar (simbólicamente) al grupo original G como la suma del subgrupo H y sus trasladados:
G = H + p1H + + p2H + p3H + + p4H + ...
Esto trae como consecuencia directa que el orden de un subgrupo H (la cantidad de elementos que lo forman) divide exactamente al orden del grupo G (teorema de Lagrange, demostrado por vez primera en 1771). Este es el resultado que hace que el concepto del trasladado sea tan importante. Esta es la razón por la cual el grupo de orden 6 identificado como D3 pueda tener subgrupos de orden 1, 2 y 3, pero no pueda tener subgrupos de orden 4 y 5. Igualmente importantes son aquellos subgrupos H de un grupo G para los cuales el trasladado izquierdo resulta ser igual al trasladado derecho del mismo:
gH = Hg
Esto es precisamente lo que define a los subgrupos normales. La naturaleza de los subgrupos normales es tal que si construímos una tabla que corresponda a un grupo G y pintamos con un color distintivo las celdillas de los elementos que pertenezcan a subgrupos normales dentro del grupo, la naturaleza de una simetría escondida salta a relucir de inmediato. La siguiente tabla (usando notación cíclica) corresponde al grupo alternante A4 descompuesto con un grupo que no es normal (se recomienda ampliar la imagen al máximo):
Pero la siguiente tabla muestra al mismo grupo alternante A4 subdividido en subgrupos normales mediante un cociente con el grupo V4; compárese la diferencia (se recomienda ampliar la imagen al máximo):
Aunque no existe substituto alguno para una demostracion matemática convencional, podemos tomar lo anterior como una verificación visual de la existencia de los subgrupos normales dentro de un grupo.
Hay otras formas de representar visualmente las relaciones entre los elementos de un grupo, tales como los diagramas de Cayley (o grafos de Cayley), aunque no tendremos aquí necesidad de recurrir a ellos.
Habiendo presentado una visión panorámica sobre lo que es la Teoría de Grupos, el siguiente orden del día será aplicar estos conocimientos recién adquiridos al campo de la Mecánica Cuántica.
PROBLEMA: ¿Constituyen las matrices de Pauli y la matriz identidad 2x2 un grupo bajo la operación de multiplicación matricial?
Definidas las matrices 2x2 de Pauli como:
resulta fácil ver que el conjunto de elementos:
no constituye un grupo, ya que al llevar a cabo la multiplicación de varios de los elementos del grupo se obtienen elementos que no forman parte del conjunto original:
La imposibilidad de poder obtener un grupo cuyos cuatro elementos sean la matriz identidad 2x2 I y las matrices 2x2 σ de Pauli no significa que no se les pueda utilizar para la construccion de un grupo, siempre y cuando estemos dispuestos a ir metiendo más elementos dentro del conjunto conforme sea necesario para que el conjunto pueda permanecer cerrado a la operación de multiplicación matricial. Si hacemos esto, eventualmente llegamos a un conjunto de ocho matrices 2x2 como el siguiente:
Aunque puede resultar algo laborioso, no es cosa del otro mundo verificar que lo que se tiene aquí es precisamente un conjunto de elementos en el cual se cumplen las cuatro condiciones básicas para que pueda ser clasificado como grupo. Pero lo que tenemos en manos no es simplemente un grupo G de orden |G|.=.8 (cuya tabla de multiplicación contendrá 64 elementos). Al haber multiplicado las dos matrices σ2 del conjunto por el número imaginario i, hemos obtenido un conjunto de matrices en el cual todas las matrices tienen entradas reales, sin números imaginarios. Y no sólo esto, sino que tenemos ya algo mucho más trascendental: las matrices obtenidas son precisamente las que se requieren para poder llevar a cabo rotaciones de 180° alrededor de los ejes rectangulares coordenados Cartesianos.
De hecho, todo lo que pueda ser asociado con rotaciones, incluídas las matrices de rotación, eventualmente resultará en algún tipo de grupo. Puesto que cualquier rotación en cierto sentido y en torno a cierto eje puede ser invertida con una rotación en igual número de grados pero en sentido inverso, llevando al objeto a su posición original (elemento identidad), la existencia de elementos inversos en los grupos de rotación está absolutamente garantizada. Si llevamos a cabo las rotaciones en múltiplos (por ejemplo, en múltipos de 5°), siempre será posible acumular suficientes rotaciones sucesivas para regresar a un objeto al mismo lugar, lo cual garantiza que con una cantidad mínima de elementos el conjunto de rotaciones no producirá rotación alguna que no pertenezca al conjunto original. Por otra parte, siempre se cumplirá la propiedad de asociatividad ya que, en efecto, una rotación (usaremos la misma dirección de giro) de 45° seguida de una rotación de 120°, lo cual dá una rotación efectiva de 165°, seguida de una rotación de 60°, trae como resultado una rotación neta de 225°. Pero una rotación de 45°, seguida de una rotación de 180°, nos produce exactamente el mismo resultado. O sea:
45° + (120° + 60°) = (45° + 120°) + 60°
Esta es precisamente la propiedad asociativa.
Naturalmente, en un sistema de tres ejes coordenados, las rotaciones no son conmutativas como lo muestran los siguientes secuencias en las cuales ubicamos un libro en un sistema de ejes coordenados rectangulares Cartesianos, dándole primero un giro de π/2 al libro (en sentido contrario al movimiento de las manecillas del reloj) en torno al eje-x, y tras ello otro giro de π/2 en torno al eje-y (también en sentido contrario al movimiento de las manecillas del reloj), lo cual está enmarcado en el recuadro de bordes verdes, mientras que en la segunda secuencia invertimos el orden de las operaciones de rotación, lo cual está enmarcado en el recuadro de bordes de color violeta, resultando claro que el libro vendrá quedando en posiciones diferentes según se efectuen las operaciones de rotación (en lugar del símbolo mecánico-cuántico Đ que hemos estado utilizando en las entradas anteriores para denotar operaciones de rotación llevadas a cabo sobre funciones de onda, usaremos en la figura el símbolo R que se acostumbra utilizar para llevar a cabo rotaciones no de funciones sino de vectores y objetos sólidos):
De cualquier modo, no nos debe preocupar mucho el hecho de que las operaciones de conmutación no sean conmutativas, ya que la conmutatividad no es un requisito para que un conjunto de elementos (operaciones) pueda ser clasificado como un grupo.
A continuación, se obtendrá un resultado muy importante. Para lograr tal cosa, haremos momentáneamente a un lado a los operadores de rotación Đ que hemos estado estudiando previamente para considerar rotaciones clásicas de vectores y objetos sólidos como se acostumbra estudiarlo en la mecánica clásica.
La operación esencial en la cual estamos interesados es aquella en la cual le imprimimos una rotación a un vector V con un operador matricial R que actúa sobre dicho vector puesto a su derecha para entregarnos un vector girado V’:
Las matrices de rotación son matrices cuadradas, con entradas reales, mejor conocidas como matrices ortogonales, cuya principal característica es que el determinante de las mismas es igual a la unidad (esto refleja el hecho de que al ser aplicada una matriz de rotación sobre un vector V para girarlo en el espacio, la longitud del vector permanece invariante). El conjunto de todas las matrices ortogonales de tamaño n forman un grupo, conocido en la literatura técnica como el grupo especial ortogonal o Special Orthogonal SO(n).
Para llevar a cabo rotaciones de los ejes coordenados Cartesianos en un espacio tridimensional, podemos identificar a los ángulos de rotación en torno a cada eje simbolizando el giro en torno al eje-z como α, el giro en torno al eje-y como β, y el giro en torno al eje-x como γ:
Trabajando sobre un espacio tridimensional con coordenadas rectangulares Cartesianas, las matrices requeridas para imprimir una rotación sobre cada uno de los ejes coordenados son las siguientes:
No resulta difícil escribir la transpuesta de cada una de estas matrices R (intercambiando los renglones por las columnas) obteniendo para cada una de ellas la transpuesta RT, y pre-multiplicarlas así como post-multiplicarlas por sus transpuestas respectivas para así poder confirmar que los productos serán iguales en los tres casos a la matriz identidad I:
lo cual sólo puede ser cierto si en cada caso la transpuesta de la matriz es igual la inversa de la matriz:
Esta es precisamente la condición que deben cumplir todas aquellas matrices ortogonales cuyos elementos son números reales, y de hecho este enunciado es válido únicamente para las matrices ortogonales. La afirmación de que la transpuesta de una matriz cuadrada 3×3 cuyos elementos sean números reales es igual a la inversa de la matriz, y la afirmación de que la longitud permanezca constante (invariante) bajo una rotación de las coordenadas, pueden ser tomadas ambas como enunciados completamente equivalentes de la condición de ortogonalidad.
¿Y cuál sería el enunciado correspondiente en el caso de que una matriz 3×3 pueda tener como elementos números imaginarios o complejos además de números reales? En tal caso, estaríamos hablando de una matriz unitaria, la cual debe ser igual a la transpuesta de su conjugado complejo (o bien, al conjugado complejo de la transpuesta), simbolizándose frecuentemente a la transpuesta del conjugado complejo de una matriz unitaria con una daga puesta como super-índice, lo cual permite escribir la condición de la manera siguiente:
Es muy importante no confundir nunca una matriz unitaria con una matriz Hermitiana. Para que una matriz sea Hermitiana, basta con que la matriz sea igual a su transconjugada, mientras que para que una matriz sea unitaria el transconjugado de la misma debe ser igual a la matriz original. Las matrices unitarias son importantes porque al igual que las matrices ortogonales cuya aplicación deja intacta la longitud del vector que está siendo girado, dejan intacta la longitud de un vector complejo cuyos elementos pueden ser números reales, imaginarios o complejos. Más llamativo aún es el hecho de que tanto la definición de ortogonalidad como la definición de unitario son aplicables no sólo a matrices cuadradas 3x3, sino a matrices cuadradas de cualquier orden n×n.
Habiendo dejado en claro que cada una de las tres matrices Rx(γ), Ry(β) y Rz(α) es una matriz ortogonal ya que deja invariante la longitud del vector que está siendo girado, se destacará que, en realidad, para lo que será llevado a cabo a continuación, sólo será necesario efectuar rotaciones en torno a dos de los ejes coordenados rectangulares, prescindiendo por completo del otro. La primera rotación será llevada a cabo en torno al eje-z, identificada como α, girando los ejes (x,y) hacia su nueva posición (x’,y’). La segunda rotación será llevada a cabo en torno al eje-y’ (girado por la operación anterior), identificada como β, girando los ejes (x’,z) hacia su nueva posición (x’’,z’). Y por último, la tercera rotación será llevada a cabo en torno al eje-z’, identificada como γ, girando los ejes (x’’,y’) hacia su nueva posición (x’’’,y’’). El efecto combinado de las rotaciones se muestra en la siguiente secuencia de figuras:
El siguiente gráfico animado nos muestra de una manera más intuitiva lo que se está llevando a cabo:
Seguiremos teniendo tres ángulos distintos de rotación, α, β, y γ, pero notacionalmente no estaremos manejando el eje-x en la aplicación sucesiva de estas rotaciones:
Ahora bien, las funciones trigonométricas seno y coseno pueden ser expandidas en series infinitas de Taylor de la siguiente manera:
Si en vez de considerar desplazamientos angulares finitos relativamente grandes estamos dispuestos a trabajar con desplazamientos angulares muy pequeños, casi infinitesimales, los cuales representaremos como ε, entonces usando las expansiones en series de Taylor podemos evaluar las matrices de rotación de la siguiente manera:
A continuación, usando estas matrices de rotación válidas para matrices infinitesimales, compararemos el efecto de una rotación en torno al eje-y seguida de una rotación en torno al eje-x, con una rotación en torno al eje-x seguida de una rotación en torno al eje-y. En un caso, se tiene:
mientras que en el otro caso se tiene:
Si despreciamos términos del orden ε2, ambos productos matriciales terminan siendo iguales, lo cual indica que para ángulos infinitesimales lo suficientemente pequeños las rotaciones son conmutativas. Sin embargo, si retenemos términos del orden ε2 pero ignorando términos del orden superior, podemos ver la manera en la cual los productos de las matrices de rotación dejan de ser conmutativos:
Pero para términos del orden ε2 despreciando términos de orden superior, podemos ver que este último resultado es igual a la matriz de rotación Rz si le restamos a dicha matriz la matriz identidad I:
Antes de continuar adelante, vale la pena reflexionar un poco sobre lo que tenemos en nuestras manos. El producto de dos matrices de rotación para dos ejes Cartesianos diferentes (en este caso, Rx y Ry) deja de ser conmutativo, lo cual ya se esperaba. Pero al evaluar la discrepancia en la conmutatividad, entra en el panorama el otro eje coordenado rectangular con la matriz Rz. Esto empieza a parecerse en algo a las relaciones de Born para el momento angular, en las cuales si tomamos el conmutador de Jx y Jy se produce la relación típica de Born que termina produciendo a Jz como resultado de la operación indicada por el conmutador. Sin embargo, en esto que estamos empezando a obtener no hemos utilizado para nada la “extraña ecuación” de Born. Por el contrario, tal parecería como si estuviéramos en el camino de derivarla a partir de puras consideraciones sobre operaciones efectuadas sobre un grupo de rotación, como si las operaciones de simetría fueran algo inclusive más fundamental que la mismas relaciones de Born para el momento angular que hemos estado tomando como postulados que no pueden ser derivados de consideraciones más elementales. Esto, desde luego, es precisamente lo que pudo “ver” Eugene Wigner, esta es la razón por la cual empezó a emocionarse cuando empezó a establecer la “conexión” entre los grupos de rotación que había estudiado como ingeniero químico al cursar la materia de cristalografía y la recién descubierta Mecánica Cuántica. Esta es una perspectiva nueva en la cual lo que ocurre en la Mecánica Cuántica termina siendo el resultado, matematicamente hablando, de operaciones de simetría.
Tomemos el resultado que hemos obtenido, denotando con un simple cambio notacional a θ como el ángulo de giro del vector (o del objeto sólido) que está siendo girado:
Formulémonos a continuación la siguiente pregunta: ¿habrá una relación similar a ésta para el caso en el que se tengan operadores de rotación mecánico-cuánticos Đ, suponiendo que el ángulo de giro sea el mismo en ambos casos y suponiendo que el eje de rotación en torno al cual se lleva a cabo el giro sea también igual en ambos casos? La pregunta es válida si tomamos en cuenta el hecho de que, considerados ambos casos desde el punto de vista de sus propiedades como grupos matemáticos, ambos comparten las mismas propiedades grupales:
Obsérvese que en la tabla comparativa se ha simbolizado a I como el elemento identidad (matricial) para el caso de las matrices ortogonales de rotación, mientras que para los operadores de rotación el elemento identidad se ha simbolizado como el número 1. No puede haber punto alguno de confusión entre las matrices ortogonales de rotación y los operadores de rotación, ya que en el segundo caso lo que se está llevando a cabo no es una rotación de vectores u objetos sólidos sino de funciones como en el siguiente caso ilustrativo en el cual se lleva a cabo una rotación de 90° (π/2) de una función de onda Ψ(x,y,z) en torno al eje-z en el sentido contrario al giro de las manecillas del reloj mecánico:
Lo que se ha ilustrado arriba es un caso particular de la rotación general de la función de onda Ψ(x,y,z) en torno al eje-z en una magnitud angular θ (obsérvese que las nuevas coordenadas de la función de onda provienen de la rotación ortogonal en torno al eje-z):
habiéndose hecho θ.=.π/2 para un giro total de la función en 90°:
Las diferencias entre ambos grupos de rotaciones resaltan aún más cuando, considerando al momento angular Lz como el generador de las rotaciones de las funciones de onda en torno al eje-z, escribimos el operador de rotación correspondiente a un lado de la matriz de rotación para vectores y objetos sólidos:
En la Mecánica Ondulatoria, ya hemos visto que el operador convencional del momento angular Lz es el siguiente (lo destacaremos en letra negrita para resaltar su naturaleza operacional, pero no en color azul puesto que obviamente no es una matriz):
Esto resalta aún más la enorme diferencia que hay entre las matrices ortogonales de rotación y los operadores de rotación mecánico-cuánticos. De cualquier manera, si hay para los operadores de rotacion mecánico-cuánticos Đ una relacion similar a la que hemos obtenido para las matrices ortogonales de rotación R, entonces tal relación debe ser:
Recurriendo a la definición exponencial de los operadores de rotación mecánico-cuánticos, podemos escribir al operador de rotación para un giro en torno al eje-x de la siguiente manera:
Podemos llevar a cabo un desarrollo de esto en series de Taylor de la siguiente manera:
Del mismo modo, para un giro de θ grados en torno al eje-y, se tiene lo siguiente:
Tomando el producto de ambos operadores, se tiene:
Tomando el producto de ambos operadores pero en el orden inverso, se tiene:
La diferencia entre ambos productos (los términos destacados en color rojo son comunes a ambos productos pero con signos opuestos y por lo tanto se eliminan solos, mientras que los términos destacados en color magenta son términos de orden superior que se consideran despreciables para ángulos de rotación pequeños, dejando únicamente a los términos destacados en color negro) es:
Por otro lado, usando la relación no-conmutativa que queremos extender para el caso de los operadores de rotación:
Si esto es igual a lo anterior, entonces:
Simplificando:
Por la forma en la cual se ha llevado a cabo el desarrollo, y confirmando la plena equivalencia que hay entre la Mecánica Ondulatoria y la Mecánica Matricial, la relación será igualmente válida si en lugar de operadores diferenciales para el momento angular se consideran los operadores matriciales del momento angular:
Hemos obtenido las relaciones de Born para el momento angular. Y lo hemos logrado partiendo de consideraciones que tienen que ver únicamente con asuntos de simetría (angular). Si a esto agregamos las relaciones de Born que se obtuvieron previamente en la entrada titulada “El operador de traslación” para la posición y el momentum, partiendo también de consideraciones que tienen que ver únicamente con asuntos de simetría (espacial), podemos ver que las implicaciones filosóficas de esto son profundas. Anteriormente, el postulado esencial que se había utilizado para la construcción piramidal del edificio de la Mecánica Cuántica era la cuantización (o cuantificación) del momento angular en términos de la constante universal ħ, conjuntamente con “la extraña ecuación de Max Born”. Esos eran los pilares sólidos a partir de los cuales lo demás son meras consecuencias. Pero ahora resulta que parece haber algo mucho más fundamental. Tal parece que todo deviene de las simetrías que hay en la Naturaleza: las simetrías espaciales, las simetrías temporales, las simetrías rotacionales. Esto es lo que le dá a la Mecánica Cuántica su enfoque moderno. La prioridad entre los teóricos ha dejado de ser la búsqueda de relaciones superficiales empíricas de entre las cuales pueda intuírse un entramado de aplicación general. La prioridad actual consiste en la búsqueda de simetrías. Estas simetrías pueden estar escondidas en muchas partes de muchas maneras distintas. Puede tratarse de simetrías que aparecen en una ecuación diferencial. O puede tratarse de simetrías que aparecen en la solución de alguna ecuación diferencial. Desde que Emmy Noether demostró matemáticamente la liga estrecha que hay entre las simetrías y las cantidades físicas que se conservan, la Mecánica Cuántica ha llegado a una madurez suficiente para considerar que, al final de cuentas, la simetría está detrás de prácticamente todo. Esto explica el por qué la Naturaleza no escribió primero las relaciones de conmutación de Born para echar a andar todo después del Gran Estallido (Big Bang), ya que las relaciones de conmutación de Born vendrían a ser la representación matemática humana de los aspectos más esenciales de la simetría.
Si estamos dispuestos a considerar a la simetría como la piedra angular de la Mecánica Cuántica, ¿cuál debe ser entonces nuestra prioridad si es que aspiramos a seguir avanzando? Obviamente, la prioridad debe ser el estudio de las matemáticas de la simetría y la búsqueda de todas las relaciones de simetría que podamos encontrar en la Naturaleza por la vía experimental. Y el estudio de las matemáticas de la simetría empieza a partir de la Teoría de Grupos desarrollada por vez primera por Evariste Galois para los grupos discretos, y de la Teoria de Grupos para grupos continuos desarrollada por vez primera por Sophus Lie. De hecho, en nuestro estudio previo de lo que tiene que ver con el momento angular, a partir de las relaciones de conmutación, hemos estado recurriendo repetidamente a las propiedades de lo que hoy se conoce como los grupos de Lie, para los cuales hay toda una álgebra desarrollada conocida hoy como el álgebra de Lie. Se trata de una matemática extraordinariamente potente que se sospecha que aún no nos ha soltado todos sus secretos en lo que tiene que ver con su aplicación al mundo físico. No se había mencionado previamente nada de esto al lector con la finalidad de no intimidarlo, pero con la familiaridad que ahora se tiene al haber llegado hasta este punto sabemos con mayor certeza qué es lo que estamos enfrentando y cómo podemos enfrentarlo. Para dar una idea de la sofisticación a la que se ha llegado en la actualidad sobre este asunto, se mencionará el grupo de Lie E8, el cual es un objeto de 248 dimensiones (algo que va más allá del espacio-tiempo de cuatro dimensiones de Einstein que ahora se antoja como un juego de niños) que describe una estructura de 57 dimensiones que fue conceptualizada y diseñada por un equipo de 18 matemáticos en cuatro años de trabajo, lo cual culminó a principios de 2007 y para lo cual se utilizó una super-computadora en la Universidad de Washington denominada Sage que requirió 64 Gigabytes de memoria RAM para poder alojar en su memoria la matriz de resolución de este grupo.
A estas alturas, es importante destacar el hecho de que las matrices ortogonales no están limitadas al espacio tridimensional Euclideano. También hay matrices ortogonales 4×4 que pueden llevar a cabo rotaciones de 4-vectores (vectores en cuatro dimensiones), como la siguiente matriz que es un caso particular para una rotación a través de ángulos iguales de 180° en dos planos ortogonales de una matriz más general conocida como la matriz de rotación isoclínica:
Y el siguiente es un ejemplo de una matriz ortogonal de rotación 5×5: