martes, 11 de agosto de 2009

Representaciones irreducibles II

Cuando la simetría fue estudiada matemáticamente por vez primera, esto se hizo relacionado con la simetría de los cristales. Si giramos un cristal en torno a ciertos ángulos o ciertos ejes, o si lo reflejamos con respecto a ciertos planos, descubriremos que hay caras equivalentes en lugares equivalentes. La operación de rotación (o reflexión) parece dejar al cristal en la misma posición que la que tenía previamente, aunque de hecho la operación haya cambiado todo de lugar. Una operación de simetría lleva a una figura simétrica hacia sí misma, el resultado de la operación es indistinguible del original. Se requirió algo de ingenio para darse cuenta de que bajo la simetría imperfecta de los cristales reales que se encuentran en la Naturaleza había una simetría exacta reflejada en las orientaciones de las caras de los cristales, no en sus formas aparentes que son afectadas por los accidentes que se dán en la formación y crecimiento de los cristales naturales aparentemente irregulares. Una operación de simetría lleva una cara en cierta orientación a una cara equivalente en una orientación simétrica. Aunque los cristales son interesantes, son algo difíciles de estudiar, así que usualmente la simetría espacial es introducida mediante operaciones que mantienen un punto fijo en el espacio, dando lugar a lo que se conoce como grupos puntuales. Las operaciones de simetría consisten en rotaciones en torno a cierto eje que se considera fijo, y reflexiones con respecto a un plano (ambas operaciones llevadas a cabo manteniendo como referencia cierto punto fijo en el espacio). Podemos simbolizar una rotación en torno a cierto eje como Cn (de tal modo que C2 simbolice algo así como una rotación de 120°), una reflexión con respecto a un plano perpendicular al eje como σh, y una reflexión en un plano que contiene al eje como σv. Una operación de simetría conduce a una figura simétrica hacia sí misma; el resultado final no es distinguible del original. Las operaciones de simetría constituyen un grupo en virtud de que todas las operaciones satisfacen los cuatro postulados que se requieren para poder definir un grupo (asociatividad, existencia de operación inversa, la existencia del elemento identidad simbolizado frecuentemente en la Teoría de Grupos como E que significa Einheit o “unidad” en Alemán, y la cerradura que requiere que ninguna combinación de operaciones grupales pueda producir un elemento que no forme parte del grupo original).

Tómese como ejemplo una operación de rotación de 120° en torno a cierto eje, y una operación de reflexión σv que contiene al eje, como los elementos de simetría de cierta figura que puede ser, por ejemplo, una molécula de amoníaco, NH3 (la cual contiene un par solitario de electrones apareados en un orbital que no será considerado aquí pero que de cualquier manera será mostrado como una esfera gris borrosa puesta en la parte superior de la figura):




En la figura, el eje con respecto al cual se llevan a cabo las operaciones de rotacion (vistas por un observador situado arriba de la molécula) es el eje vertical que pasa por el centro del átomo de nitrógeno (N) y que pasa también por el centro geométrico del triángulo equilátero formado por los átomos de hidrógeno (H), mientras que los tres planos de reflexión σv (los cuales contienen al eje de rotación) son los planos situados justo a la mitad del espacio entre cada par de átomos de hidrógeno (H), habiendo por lo tanto tres planos de reflexión. Multiplicando los elementos que constituyen las operaciones de simetría (llevando a cabo sucesivamente todas las operaciones posibles de rotación y reflexión), se descubre que el conjunto de las seis operaciones E (identidad), C2 (una rotación de 120°), C22 (una rotación de 240°), σ, σ’ y σ’’ (las reflexiones posibles de cada par de átomos H con respecto al plano vertical que hay cada par) forman un conjunto cerrado, constituyendo por lo tanto un grupo finito de orden 6 que llamaremos C3v (la notación C3v usada para designar a grupos con este tipo de simetría es conocida como la notación de Schönflies, debida al matemático Arthur Moritz Schönflies, usada en los estudios de simetría molecular; habiendo otro tipo de notación conocida como la notación Hermann-Mauguin que es más usada en cristalografía, concebida por Carl Hermann y por Charles-Victor Mauguin). Resulta más fácil apreciar las operaciones grupales usando la siguiente figura:


En la figura, el eje de tres vías es perpendicular al plano de la figura y por lo tanto no es visible directamente aunque pasa por el centro de la figura. El plano original de simetría es designado como σ (en la figura no lo vemos como un plano sino como una línea precisamente por ser también perpedicular al plano de la figura). Las rotaciones sucesivas llevan a este plano a ocupar el lugar que ocupaban los planos de simetría σ’ y σ’’, de modo tal que la primera rotación hace que el plano σ ocupe el lugar en el que estaba el plano σ’, con el plano σ’ ocupando el lugar que ocupaba el plano σ’’ y con el plano σ’’ ocupando el lugar que ocupaba el plano σ (los giros son dados en el sentido contrario al movimiento de las manecillas de un reloj mecánico). Dos rotaciones sucesivas llevan al plano de simetría σ a ocupar el lugar en el que se encontraba el plano σ’’, y así sucesivamente. Y tres rotaciones sucesivas llevan al plano de simetría σ de regreso a su posición original σ. De este modo, podemos ver cómo un punto P cualquiera es llevado hacia el lugar marcado por los otros dos puntos sólidos (puntos en color verde) mediante rotaciones, y cómo el mismo punto puede ser llevado también hacia los otros puntos (de color magenta, huecos en su interior)  mediante reflexiones hechas con respecto a los tres planos de simetría σ, σ’ y σ’’. Con la ayuda de la figura, se puede escribir una “tabla de multiplicación” para este grupo, resultando fácil verificar que no se trata de un grupo conmutativo (abeliano) ya que las operaciones de rotación y reflexión no son conmutativas. Usando C2 para indicar una operación de rotación de 120° y escribiendo σ, σ’ y σ’’ como σ1, σ2 y σ3, la tabla grupal resulta ser la siguiente:


El lector puede comprobar fácilmente por sí mismo mediante multiplicaciones algebraicas directas que un conjunto de elementos que satisface plenamente las propiedades del grupo puntual C3v es el siguiente (en donde el elemento identidad ha sido simbolizado como z):


Otro conjunto de elementos que también satisface las propiedades del grupo puntual C3v es la siguiente representación matricial de dicho grupo, en donde los elementos del grupo son matrices, mediante operaciones de multiplicación matricial:


Existe una interacción curiosa entre las rotaciones y reflexiones que hay en este grupo C3v. Supóngase que reflejamos al punto P en la figura con una operación de reflexión σ, y tras ello damos un giro en el mismo sentido de las manecillas del reloj con una operación de rotación C2, y finalmente lo reflejamos de nuevo con otra operación de reflexión σ. De acuerdo con la “tabla de multiplicación”, se obtiene el mismo resultado que si se lleva a cabo una operación de rotación sucesiva C22 en un sentido contrario al giro de las manecillas del reloj. Algebraicamente, podemos escribir las secuencias e igualdad de operaciones como σ-1C2σ.=.C22, puesto que σ es su propio inverso (en la “tabla de multiplicación”, σ1 por σ1-1 nos produce el elemento identidad, al igual que σ2 y σ3 por ser sus propios inversos). Si hacemos lo mismo con una operación de rotación C en lugar de una operación de reflexión σ, siempre obtenemos como respuesta un elemento C, nunca un σ. Hablando con mayor generalidad, si consideramos los productos del tipo A-1CA en donce C es cualquiera de las rotaciones y A es cualquier miembro del grupo C3v, siempre obtendremos un C. En un grupo abeliano (conmutativo), este resultado no es interesante, puesto que siempre se obtiene el mismo elemento individual: A-1BA = A-1AB = B. Pero aquí, sin embargo, metimos C2 y obtuvimos como respuesta a C22. Todos los miembros de un grupo que están relacionados de este modo forman lo que se llama una clase. Los miembros de una clase son todos ellos de una naturaleza semejante, simplemente en alguna orientación diferente. Para el grupo C3v, considérense los productos del tipo C-1σC, y compruébese que las tres reflexiones también caen dentro de una misma clase. Obviamente, el elemento identidad E constituye toda una clase por sí mismo ya que conmuta con cada miembro del grupo. El grupo C3v, por lo tanto, tiene tres clases: E, 2C, and 3σ. Este es precisamente el concepto de las clases de equivalencia que se introdujo en la entrada anterior para el grupo D3 de las rotaciones del triángulo equilátero.

Generemos ahora algunas representaciones del grupo C3v. Podemos hacerlo montando primero un sistema de coordenadas rectangulares Cartesianas (algo que no hicimos arriba), usando para ello al eje-z haciéndolo coincidir con el eje de simetría, y colocando al eje-x a lo largo de uno de los planos de simetría. Si las coordenadas del punto P son (x,y,z), cualquier operación de simetría llevará estas coordenadas hacia un nuevo conjunto de coordenadas (x’,y’,z’) que serán funciones lineales de las coordenadas originales. Como ya lo vimos en la entrada anterior (al introducir el concepto de la representación matricial de un grupo), la transformación puede ser expresada con un conjunto de matrices 3×3 que actúen sobre vectores columna de tres componentes, las cuales pueden ser encontradas con las fórmulas para la rotación de coordenadas. Habrá en este caso seis matrices, correspondiéndose el elemento E con la matriz identidad. En este caso, z no es afectada, ya que es multiplicada por 1 en cada transformación y los valores de x-y nunca le son mezclados. Por lo tanto, z por sí misma es la base de una representación, la representación en la cual cada miembro se corresponde con 1. Los valores de x-y sí son mezclados necesariamente bajo las transformaciones, y es fácil ver que no habrá selección alguna de coordenadas que pueda cambiar esto. Forman la base de una representación matricial bi-dimensional. Hay dos maneras en las cuales podemos interpretar cualquier transformación: activa y pasiva. En la primera, los ejes permanecen fijos mientras que el vector v es girado en un ángulo θ desde su posición inicial hasta su nueva posición en donde es considerado como el vector v’, mientras que en la segunda interpretación el objeto permanece fijo mientras que son los ejes los que son girados. El sentido de la rotación es opuesto en ambos casos, pero el efecto en las coordenadas que describen al objeto o a un punto cualquiera del objeto es el mismo. Los cambios en las coordenadas de un vector interpretado como una matriz 2×1 (de dos renglones y una columna) efectuados por una matriz de transformación 2×2 son entonces:


El determinante de la matriz de rotación D(θ) es +1, lo cual es característico de todas las matrices ortogonales de rotación puesto que no alteran el volumen del objeto que se movido. La traza de la matriz de rotación, la suma de sus elementos diagonales, es igual aquí a 2cos(θ), ó exp(iθ).+.exp(-iθ). Como ya se ha visto, el determinante y la traza (trazo) de una matriz son invariantes bajo una transformación de semejanza (similitud), lo cual explotamos ventajosamente en la representación matricial de un grupo; al igual que los n valores eigen de un matriz n×n también son invariantes bajo una transformación de semejanza. Y el determinante de cualquier matriz es igual al producto de los eigenvalores de la matriz (esto resulta fácil de ver cuando la matriz ha sido diagonalizada) mientras que la traza es igual a la suma de los eigenvalores. Usando como referencia los puntos mostrados en la siguiente figura:




se tiene entonces que las matrices que pueden desplazar al punto 1 hacia cualquiera de las posiciones ocupadas por los otros puntos son:


Los elementos de simetría afectan al punto arbitrario (x,y) simbolizado como 1 en la figura. Lo llevan hacia los otros puntos del 2 al 6 que le son equivalentes por simetría y hacia ningún otro, demostrando la cerradura del grupo. Los efectos de las operaciones de simetría en las coordenadas de un punto arbitrario están expresados por las seis matrices 2×2 mostradas, las cuales son una representación matricial del grupo. Evaluando tanto los determinantes como las trazas de las seis matrices, encontramos que las rotaciones tienen un determinante igual a +1 y que las reflexiones tienen un determinante igual a -1. La base bi-dimensional es en este caso la menor dimensionalidad posible que puede expresar fielmente la no-conmutatividad, y es un hecho que la representación tiene una matriz diferente para cada elemento del grupo. Tales representaciones suelen ser llamadas fidedignas. Ciertamente, una representación no tiene que ser fidedigna. Considérese una representación uni-dimensional del grupo en donde la matriz unitaria 1 se corresponde a cada elemento. Esta es una representación, puesto que AB.=.C implica de modo trivial que D(A)·D(B) = D(C) ya que 1×1.=.1. Todas las representaciones uni-dimensionales tienen que ser conmutativas ya que la multiplicación ordinaria es conmutativa. Es posible concebir otra representación uni-dimensional para el grupo, una que asigna el elemento [1] al elemento identidad y a las rotaciones y que asigna el elemento [-1] a las reflexiones. Llamemos a nuestras representaciones uni-dimensionales A y B respectivamente, y llamemos a la representación fidedigna bi-dimensional E (¡no confundir esto con el elemento identidad E!). Podemos crear a continuación una representación tridimensional incluyendo a la coordenada-z (algo que no se hizo en las matrices 2×2 dadas arriba para el grupo). En todas las seis operaciones de simetría, z permanece invariante, de modo tal que las matrices 3×3 correspondientes tienen un 1 en la diagonal que corresponde a z, y las seis matrices usuales en la representación E completan un sub-bloque diagonal 2×2. Es fácil ver que z por sí sola es la base para la representación A, de modo tal que lo que se tiene aquí puede ser simbolizado como A+E. Esta representación es manifiestamente reducible, significando con ello que las matrices de las representaciones más pequeñas pueden ser combinadas a lo largo de la diagonal y que las bases de las representaciones más pequeñas separadas no son mezcladas en ninguna operación de simetría. Por otro lado, las representaciones A y E son obviamente irreducibles, A por que ya de por sí es unidimensional, y E porque no hay forma alguna en la cual pueda ser expresado como matrices 2×2 diagonalizadas bajo ninguna selección de base. Las matrices diagonales siempre conmutan, pero siendo la representación fidedigna tiene que contener matrices que no conmutan.

Se dice que la representación en términos de (x,y,z) es reducible a dos representaciones más pequeñas, y cada una de estas dos representaciones es a su vez irreducible a representaciones más pequeñas. Son precisamente las representaciones irreducibles las que proporcionan la información esencial de un grupo; en tanto que las representaciones reducibles pueden crearse al gusto resultando de poco valor. Naturalmente, una representación uni-dimensional es irreducible, ya que en este caso no hay lugar alguno a donde ir.

En el ejemplo visto arriba, resultó fácil encontrar la reducibilidad de la representación vectorial porque las coordenadas fueron asignadas de un modo prudente. Si se hubieran llevado los ejes coordenados a una posición completamente arbitraria, habríamos terminado con seis matrices bastante llenas y la reducibilidad mediante una selección afortunada de ejes no habría sido del todo obvia. Cualquier representación cambia su forma explícita si hacemos una selección diferente de la base, aunque en el corazón siga siendo lo mismo. ¿Y cómo podemos encontrar la forma sencilla verdadera de una representación? La respuesta está en darse cuenta que la selección de una base diferente es simplemente una transformación lineal del tipo y.=.Ax, bajo la cual las matrices R de una representación cambian hacia R’ = A-1RA en lo que se conoce como una transformación de similitud (semejanza), siendo también de gran ayuda el hecho de que algo que permanece invariante bajo una transformación de similitud es la suma diagonal o traza (trazo) de la matriz R, esto es, Tr(R’).=.Tr(R), dándosele (como ya se vió en la entrada anterior) a la traza el nombre de carácter grupal, frecuentemente simbolizado como χ(R). Dos representaciones equivalentes difieren únicamente en la selección de las funciones de base utilizadas para expresarlas en forma explícita, su naturaleza básica sigue siendo esencialmente la misma. La contraparte del teorema que se acaba de establecer es un resultado importante: si los caracteres grupales χ de dos representaciones son iguales, entonces las representaciones son equivalentes. En tal caso, podemos iniciar con esperanzas de éxito la búsqueda de una matriz A que conecte a dichas representaciones. Este resultado es aplicable a las matrices unitarias, y ciertamente es válido para las matrices de rotación y reflexión.

Si una representación (matricial) es reducible, puede ser expresada con las matrices para las representaciones irreducibles colocadas a lo largo de la diagonal principal mediante una selección adecuada de las coordenadas. Por lo tanto, el carácter grupal χ de una representación reducible es igual a la suma de los caracteres grupales χ para las representaciones irreducibles de que consta.

Los caracteres grupales de las matrices que representan a los miembros de cierta clase de equivalencia siempre serán los mismos, en virtud de que los miembros de una clase de equivalencia están relacionados con transformaciones de similitud, las cuales dejan inalterada la traza (trazo) de una matriz. Más aún, el número de representaciones irreducibles de un grupo es igual al número de clases de equivalencia que hay en dicho grupo. Si en un grupo hay cinco clases de equivalencia, entonces debe de haber también cinco representaciones irreducibles en dicho grupo. Para el grupo C3v, podemos construír la siguiente tabla que muestra los caracteres grupales χ de las representaciones irreducibles del grupo, la cual se construirá de una manera un poco diferente (y un poco más difícil de entender) a la tabla de caracteres grupales χ que se construyó para el grupo de simetría D3 estudiado en la entrada anterior, aunque en el fondo ambas tablas representan esencialmente la misma cosa:


En esta tabla, usamos las letras A para simbolizar una representación unidimensional con los caracteres 1 para las rotaciones, y una letra E para una representación bidimensional (¡se repite: no confundir esta simbolización con la que se le dá al elemento identidad E!). Obsérvese que la suma de los cuadrados de los caracteres grupales, o sea Σχ2, llevada a cabo sobre todos los elementos, es igual al orden del grupo (el número de sus elementos). Para la representación E, esto viene siendo:

(2)(2) + (1)(1) + (1)(1) + (0)(0) + (0)(0) + (0)(0) = 6

Otra propiedad importante es que, considerados como vectores grupales (en este caso, se trataría de 6-vectores, o vectores de seis componentes), los caracteres grupales son ortogonales el uno con respecto al otro. Estas relaciones sorprendentes son la razón del por qué hay un número finito de representaciones irreducibles, y del por qué hay un carácter grupal χ para cada clase de equivalencia.

Lo anterior nos permite mostrar una de las aplicaciones prácticas de la Teoría de Grupos. Considérese la representación vectorial del grupo C3v. Los caracteres grupales de la representación vectorial son 3, 0 (repetido dos veces) y 1 (repetido tres veces). La suma de los cuadrados de los caracteres grupales es:

(3)(3) + (0)(0) + (0)(0) + (1)(1) + (1)(1) + (1)(1) = 12

Esto es mayor que el orden del grupo g.=.6, y por lo tanto es reducible. Si tomamos el producto escalar de este vector grupal con uno de los vectores de una representación irreducible, encontraremos el número de veces que esta representación irreducible está contenida en la representación reducible, multiplicado por el orden del grupo. Para A1, se tiene:

(3)(1) + (0)(1) + (0)(1) + (1)(1) + (1)(1) + (1)(1) = 6

Para A2, se tiene:

(3)(1) + (0)(1) + (0)(1) + (1)(-1) + (1)(-1) + (1)(-1) = 0

Y por último, se tiene para E:

(3)(2) + (-1)(0) + (-1)(0) + (1)(0) + (1)(0) + (1)(0) = 6

Por lo tanto, nuestra representación vectorial reducible es reducible a A1+E. Lo trascendente es que podríamos haber determinado esto aún con una mala selección de coordenadas, puesto que los caracteres grupales, siendo trazas matriciales, son invariantes. Resulta más fácil encontrar los caracteres grupales de una representación que las matrices explícitas de una representación matricial.

Es posible que el lector astuto ya se haya dado cuenta de los parecidos que hay entre la “tabla de multiplicación” para el grupo C3v y la “tabla de multiplicación” para el grupo de simetrías del triángulo equilátero D3, así como en las semejanzas que hay en los caracteres grupales χ para ambos grupos. De hecho, ambos grupos son isomorfos. Con un simple cambio notacional, se descubre que la tabla grupal para D3 es la misma que la tabla grupal para C3v, de forma tal que las propiedades grupales de ambos grupos deben ser idénticas. Todo esto lo podríamos haber anticipado si hubiéramos partido de un resultado de la Teoría de Grupos que nos dice que sólo hay un grupo no-abeliano (no conmutativo) que conste de seis elementos. Puesto que el orden del grupo D3 es el mismo que el orden del grupo C3v, ambos son isomorfos.

Ahora veremos otro grupo un poco más elaborado, el grupo C4v. Para generar este grupo, empezamos con un eje de 4 vías y un plano de reflexión, trazando un diagrama como el que fue trazado para el grupo C3v. Al ir considerando las posiciones simétricas hacia las cuales es llevado un punto P por los miembros del grupo, veremos aparecer como por arte de magia planos de simetría diagonales, generados por productos grupales tales como C4σ. Las rotaciones ahora caen dentro de dos clases de equivalencia, una de ellas conteniendo únicamente a C42.=.C2, y la otra conteniendo las otras dos rotaciones. Las reflexiones también quedan subdivididas en dos clases de equivalencia, con una clase situada en los ángulos rectos entre los miembros de la otra clase. Hay cinco clases de equivalencia en total (incluyendo a E), y hay por lo tanto cinco representaciones irreducibles, haciendo su aparición las nuevas representaciones unidimensionales B1 y B2. La tabla con los caracteres grupales χ se muestra a continuación:


Repitiendo los pasos anteriores dados en el caso del grupo C3v para encontrar la representación vectorial del grupo C4v, encontraremos que también es reducible a A1+E. Sin embargo, las matrices explícitas resultan ser completamente diferentes para ambos grupos C3v y C4v. De hecho, los elementos matriciales para el grupo C4v resultan ser simplemente 0, -1 y +1, y no es difícil encontrar matrices para la representación E si las coordenadas son seleccionadas juiciosamente.

La demostración formal de las relaciones de ortogonalidad que hay entre las representaciones vectoriales de los caracteres grupales χ de un grupo G así como entre las representaciones matriciales del grupo depende del hecho fundamental de que cualquier matriz que no sea igual a la matriz cero 0 y que conmute con todas las matrices de una representación matricial irreducible tiene que ser necesariamente un múltiplo de la matriz identidad, esto es, tiene que ser una matriz diagonal con todos sus elementos iguales. Naturalmente, puesto que una matriz así siempre conmuta con cualquier otra matriz, aparte del caso obvio se puede afirmar que no existe una matriz no-constante (una matriz diagonal que tiene al menos dos de sus elementos diagonales diferentes) que conmute con todas las matrices de una representación matricial irreducible. Este hecho importante que resulta ser de gran utilidad es mejor conocido en la teoría formal de los grupos finitos como el lema de Schur, el cual en realidad consiste de dos lemas descubiertos por el matemático Issai Schur. El primer lema de Schur dice lo siguiente:
Sea D(Ga) una representación matricial irreducible de un grupo G definida en algún espacio vectorial (por ejemplo, un espacio vectorial en tres dimensiones), y sea A un operador fijo en dicho espacio vectorial. En tal caso, si A conmuta con D(Ga) para todos los elementos Ga que formen parte del grupo:
entonces A debe ser necesariamente el operador identidad (la matriz identidad), o proporcional al operador identidad 1 con alguna constante de proporcionalidad λ:

Por su parte, el segundo lema de Schur dice lo siguiente:
Sean D1(Ga) y D2(Ga) dos representaciones irreducibles no-equivalentes de un grupo G en dos espacios vectoriales diferentes (los cuales pueden ser iguales) de dimensiones d1 y d2 respectivamente. Sea también A un operador que lleve a cabo un mapeo de un espacio vectorial hacia el otro. En tal caso, si (conmutatividad):
para todos los elementos Ga que formen parte de un grupo G, el operador A debe ser necesariamente igual al operador cero.
Un entendimiento naive (ingenuo, no muy formal) del lema de Schur empieza suponiendo que se tiene una matriz M que conmuta con todas las matrices A de una representación irreducible, con lo cual AM.=.MA para cualquier matriz A. La adjunta Hermitiana de esta expresión es AM.=.MA. Si multiplicamos ambos lados por A y utilizamos la relación AA = AA = I, se tiene AM = MA. Por lo tanto, si una matriz conmuta con todas las matrices A, también lo hará su conjugado Hermitiano, y del mismo modo ocurrirá con las matrices M.+.M e i(M.-.M). Si estas son múltiplos de la matriz identidad, también lo será M. Entonces sólo es necesario demostrar el lema de Schur para una matriz Hermitiana.

Para simplificar las cosas, puesto que cualquier matriz M puede ser diagonalizada con una matriz apropiada V a una matriz diagonal d mediante una transformación de semejanza, se tiene V-1MV.=.d. De este modo, una representación matricial equivalente a la representación original estará formada por las matrices V-1AV = B. Pre-multiplicando AM.=.MA por V-1 (a su izquierda), y post-multiplicando por V (a su derecha), se obtiene Bd.=.dB. O sea, la representación equivalente B conmuta con la matriz diagonal d. Explícitamente, en componentes, Bijdjj = diiBij. Si dos elementos elementos diagonales de la matriz d son diferentes, esto implica que los renglones y las columnas que corresponden a los valores diferentes tienen que ser iguales a cero. Entonces las matrices B deben estar formadas con bloques diagonales, sin componentes que enlacen las bases que correspondan a los sub-bloques distintos. La matriz B, entonces, es reducible. Pero puesto que, por hipótesis, B es irreducible, esto no puede suceder, y por lo tanto se concluye que todos los elementos matriciales dii tienen que ser iguales. Por lo tanto, d debe ser una matriz constante (diagonal, con todos sus elementos iguales), y la matriz M = VdV-1 = d debe ser la misma matriz constante puesto que todas las matrices constantes conmutan con cualquier matriz (si la matriz identidad I conmuta con cualquier matriz, también lo hará la matriz kI cuando k es una simple constante numérica). Con este argumento, el lema de Schur puede considerarse esencialmente demostrado.

Como ya se dijo, el lema de Schur proporciona la base fundamental para llevar a cabo las demostraciones formales de la ortogonalidad que hay entre las representaciones vectoriales de los caracteres grupales χ de un grupo G así como entre las representaciones matriciales irreducibles del grupo. Para hacer la discusión posterior más digerible, en lugar de proceder axiomáticamente como acostumbran hacerlo los matemáticos procederemos en orden inverso, en forma inductiva (yendo del final hasta llegar al principio). Aunque el procedimiento formal casi invariable consiste en presentar un procedimiento matemático en una secuencia lógica y progresiva que parece maravillosa e impresionante, empezando desde los fundamentos hasta llegar al resultado deseado, esta no es la ruta usualmente seguida para descubrir nuevos horizontes. Usualmente se parte de una observación o de una conjetura, obteniendo una respuesta o una conclusión de cualquier manera posible, y hecho esto se procede con la construcción de la lógica impresionante que partiendo de los fundamentos conduce rigurosamente hacia el resultado final.

La relación fundamental de ortogonalidad para las representaciones matriciales de un grupo G es la siguiente:


siendo D y D las dos representaciones matriciales irreducibles m y n que corresponden a los elementos Ga de un grupo G, las cuales pueden representar la misma representación matricial irreducible. La suma es una suma grupal llevada a cabo sobre todos los elementos del grupo cuyo orden se simboliza como g. Los índices de los elementos matriciales respectivos son {i,.j} y {k,l}, con la sumación llevada a cabo desde 1 hasta la dimensión d de la representación irreducible (la cual obviamente es menor que el orden del grupo g). El lado derecho de la relación es generalmente cero, a menos de que se estén considerando los mismos elementos matriciales de la misma representación irreducible, y en esto consiste precisamente la ortogonalidad.

Obsérvese que en la segunda representación matricial D(n)* se está utilizando el conjugado complejo de D(n). Una razón para ello es que las matrices las matrices de una representación matricial siempre son escogidas como matrices unitarias para mayor simplicidad (es necesario demostrar que esto siempre es posible para cualquier representación matricial de un grupo; la demostración se lleva a cabo encontrando la relacion de semejanza que preserva la unitariedad). La otra razón, que ya nos debe ser familiar, es que en la Mecánica Cuántica son las transformaciones unitarias las que preservan la normalización de las funciones de onda, el requisito fundamental para la conservación de la probabilidad.

A continuación, se llevará a cabo la demostración de la relación fundamental de ortogonalidad para las representaciones matriciales de un grupo de una manera algo informal, cuyo propósito es transmitir las ideas esenciales que hay detrás de la relación. Usaremos matrices de rotación R como elementos grupales, con la finalidad de demostrar lo siguiente:


Obsérvese que la primera D está conjugada compleja. Como ya  se asentó antes, la razón para esto es que las matrices de una representación siempre son escogidas como unitarias por razones de simplicidad. En una representación unitaria, D(Q-1) = D(Q) es el conjugado Hermitiano, que tratándose de matrices se interpreta como la transpuesta del conjugado complejo. Las matrices que corresponden a elementos inversos aparecen en la prueba de las relaciones de ortogonalidad, y estas son convertidas a conjugados complejos en la expresión usual de las relaciones, lo cual es más conveniente. Recuérdese que una matriz unitaria es la generalización hacia bases complejas de la matriz ortogonal cuyos elementos son números reales (y para la cual se cumple la propiedad de que el inverso de la matriz es igual a la transpuesta de la matriz). Recuérdese también que una transformación llevada a cabo (mediante una operacion de pre-multiplicación) con una matriz unitaria preserva el producto escalar de dos vectores (en la Mecánica Cuántica, preserva los ”elementos matriciales” y la normalización de los estados, o sea la conservación de la probabilidad).

Dadas dos representaciones matriciales arbitrarias e irreducibles D y D, considérese una matriz A obtenida mediante la siguiente suma grupal:

A = Σ.R D(R)·X·D(R-1)

llevada a cabo sobre todos los elementos R del grupo. Obsérvese que cada término de la sumatoria es un producto matricial triple que involucra la representación matricial irreducible D(R), la matriz X y la representación matricial irreducible D(R-1). Se ha distinguido con una comilla a la segunda representación irreducible (D). La matriz X puede ser cualquier matriz siempre y cuando sirva para llevar a cabo el triple producto matricial (la matriz X no es una conjugada compleja, aquí el color rojo se escogió para fines de mayor legibilidad). Esto significa que si D es una matriz cuadrada de dimensión m y D es una matriz cuadrada de dimensión n, entonces la matriz X tiene que ser necesariamente una matriz de orden m×n para que el triple producto matricial pueda tener sentido. Si m y n no son iguales, entonces la matriz X tiene que ser una matriz rectangular y no una matriz cuadrada. Lo que estamos haciendo con la relación que se acaba de definir es empezar a montar una suma grupal que se asemeje a las relaciones de ortogonalidad que van a ser demostradas. A continuación, se probará que la matriz A satisface los requerimientos para dar cumpliento al lema de Schur enunciado arriba. Empezaremos con el siguiente desarrollo:

__________D(S)A = Σ D(SR)·X·D(R-1)
_______________= Σ D(SR)·X·D(R-1I
_______________= Σ D(SR)·X·D(R-1)·[D(S-1D(S)]
_______________= Σ D(SR)·X·[D(R-1D(S-1)]·D(S)
_______________= Σ D(SR)·X·D((SR)-1D(S)
_______________= A·D(S)

Esto implica que una suma grupal sobre todos los elementos SR dá el mismo resultado que una suma grupal llevada a cabo sobre todos los elementos R; ya que se trata simplemente de los mismos elementos pero en un orden diferente (esta es la propiedad de cerradura de grupos, puesta en acción).

Con el procedimiento anterior, se acaba de encontrar una matriz A tal que D(S)A = AD(S) para cualquier S. Tomando la transpuesta del conjugado complejo de amgos lados, se tiene que el conjugado Hermitiano de esta relación es AD(S-1) = D(S-1)A. Pre-multiplicando esto último desde la izquierda por A se tiene AAD(S-1) = AD(S-1)A = D(S-1)AA, lo cual revela la conmutatividad de AA. Puesto que esto es válido para cualquier elemento grupal S, AA conmuta con cualquier matriz de la representación irreducible D(S). Esto conduce al lema de Schur en virtud de que toda matriz AA tiene que ser un múltiplo de la matriz identidad, o sea que AA = cI, en donde c es una constante siendo I la matriz identidad. Si la matriz A no es una matriz cuadrada (lo cual ocurre cuando las dimensiones de las representaciones irreducibles no son las mismas), de cualquier modo podemos formar a partir de dicha matriz una matriz cuadrada N añadiendo renglones o columnas de ceros. Puesto que después de hacer esto se debe tener que NN = AA = cI, el determinante det(NN) debe ser igual a cero al igual que el determinante det(AA), lo cual implica que el determinante det(cI) también debe ser igual a cero, lo cual solo es posible con c.=.0. De este modo, si las dos representaciones irreducibles son de dimensiones distintas, entonces A.=.0 (la matriz cero). En lo que respecta al caso en el que las dimensiones de las dos representaciones irreducibles sean iguales, lo cual requiere a su vez que la matriz A sea necesariamente una matriz cuadrada, entonces el determinante no es necesariamente igual a cero y la constante c tampoco lo será. De este modo, la matriz A puede tener un inverso, y en tal caso AD(S)A-1 = D(S), y las dos representaciones irreducibles son equivalentes (en el sentido dictado por las relaciones de similitud). Si c es igual a cero, entonces AA.=.0 y por lo tanto A.=.0 (la matriz cero). Para ver que esto es cierto, basta con escribir el producto matricial en términos de las componentes matriciales para encontrar Σ.k.|Aik|2 = 0 en donde la suma es sobre k. Así, sabemos ahora que la matriz A que involucró a la matriz arbitraria X es igual a cero a menos de que las representaciones irreducibles sean equivalentes. Si tomamos ahora cada componente matricial de X como 1 y los demás componentes como iguales a cero, obtenemos las relaciones de ortogonalidad para m..n. Debemos considerar aún el caso c..0, el cual puede ocurrir cuando las representaciones irreducibles son de la misma dimensión, lo cual demostrará de modo explícito cómo podemos obtener de la matriz X las relaciones de ortogonalidad. En este caso:

A = Σ D(R)·X·D(R-1) = cI

en donde la constante c puede depender de lo que sea escogido para la matriz X. Escójase cualquier elemento de X, digamos Xjk.=.1, tomándose los demás elementos como iguales a cero. Siendo una matriz cuadrada, debe de haber h2 de estos elementos X, en donde h es la dimensión de la representación D. Entonces, escribiendo el producto matricial no en notación matricial compacta sino en notación matricial explícita (usando subíndices), se tiene entonces que:

A = Σ Dij(R) · Dkl(R-1) = cjkδil

Si ahora hacemos i.=.1 y llevamos a cabo la sumación desde 1 hasta h, el resultado será:

Σ Dki(R-1)  · Dij(R) = Σ δjk = cjkh

Puesto que Σδjk.=.g (el orden del grupo), de esto último se obtiene el valor para c, el cual resulta ser cjk = (g/hjk. Sabiendo entonces lo que es c, podemos escribir la relación de ortogonalidad como:

Σ Dij(R) · Dkl(R-1) = (g/hjkδil

Si la representación es unitaria, podemos poner en lugar del inverso la conjugada Hermitiana, obteniendo la expresión usual de ortogonalidad:

Σ Dij(R) · Dkl(R-1)* = (g/hilδjk

A continuación veremos el mismo procedimiento de demostración que se ha llevado a cabo arriba, pero empleando una notación más formal y rigurosa, aunque las ideas esenciales detrás de la demostración siguen siendo las mismas que las que acabamos de ver.

Primero se demostrará que para dos representaciones matriciales arbitrarias e irreducibles Dα y Dβ, la matriz A formada de la siguiente manera mediante una suma de productos matriciales triples:


cumple con las propiedades requeridas por el lema de Schur. La matriz X es una matriz es una matriz arbitraria de dimensión dα×dβ, y la sumación se lleva a cabo sobre todos los elementos Gb del grupo.

Para demostrar la validez del teorema de Schur sobre lo que tenemos arriba, tomaremos la definición que se acaba de dar a la matriz A pre-multiplicándola por Dα(Ga) sobre otro elemento Ga del mismo grupo:


Usando ahora las siguientes relaciones:


la expresión se puede escribir entonces de la siguiente manera:


lo cual haciendo Gc.=.GaGb nos conduce directamente a lo siguiente:


La justificación dada a este último paso radica en el hecho de que la sumatoria corre sobre todos los elementos grupales Gb, y GbGa simplemente produce una permutación de todos los elementos. Al final la suma nuevamente incluye a todos los elementos, y recuperamos al operador A. La última suma implica que:


y por lo tanto queda demostrado que  A cumple con la propiedad estipulada en el lema de Schur. En su representación matricial, el operador A tiene la forma:


En la definición inicial que se le ha dado al operador A como una suma de productos matriciales triples, podemos escoger arbitrariamente a la matriz X porque no se hizo suposición alguna sobre la naturaleza de X en la derivación que se llevó a cabo. Si especificamos a X como una matriz que tiene ceros en todas partes excepto en el renglón-q y en la columna-p, o sea (se requieren dos deltas de Kronecker en lugar de uno solo porque si las representaciones irreducibles Dα y Dβ son de tamaños diferentes, entonces X tiene que ser necesariamente una matriz rectangular; en caso contrario X será una matriz diagonal):


entonces esto nos permite escribir la relación para A de la siguiente manera haciendo al mismo tiempo un cambio de la notación matricial compacta a la notación matricial explícita de componentes (empleando sub-índices para destacar cada elemento matricial)


en donde g es el orden del grupo, o sea el número de elementos que contiene (este tipo de notación es el que se presta para cálculos numéricos automatizados en una computadora); mientras que dα y dβ son las dimensiones de las representaciones irreducibles Dα y Dβ. Lo único que falta por determinar aquí es λ, el cual es importante únicamente en los casos i.=.j y α.=.β. Si usamos la expresión anterior y se lleva a cabo la sumatoria sobre todos los i, se tendrá:


Por otro lado, ya se sabe que lo siguiente debe ser cierto:


o sea:


Puesto que la representación matricial del elemento neutral E del grupo es simplemente la matriz identidad, o en notación explícita de componentes Dαqp(E).=.δqp, se deduce entonces que:


Por lo tanto, la forma final de las relaciones de ortogonalidad para las representaciones matriciales de los grupos finitos discretos tiene que ser:


Esta es precisamente la forma utilizada para obtener las relaciones de ortogonalidad para los caracteres grupales χ que fueron introducidos en la entrada previa. De este modo, las relaciones de ortogonalidad para las representaciones matriciales irreducible de un grupo se ven reflejadas de modo directo en las relaciones de ortogonalidad para los caracteres grupales. Si la representación es unitaria, como usualmente ocurre dentro de la Mecánica Cuántica, la relación obtenida puede ser simplificada aún más porque: 

Dβqj(Ga-1).=.Dβjq(Ga)

conduciéndonos a la relación fundamental de ortogonalidad dada en la entrada anterior.

¿Cuándo una representación puede ser considerada reducible?

Considérese una representación reducible D(Ga). Podemos recurrir a los caracteres grupales χ para descomponer esta representación en sus partes irreducibles. Sabemos ya que las matrices de una representación matricial de D(Ga) pueden ser puestas en forma de bloques. En tal caso, el carácter de una representación reducible es simplemente igual a la suma de los elementos diagonales de cada bloque (submatriz); esto es, el carácter χ de una representación reducible es igual a la suma de los caracteres grupales χp de las representaciones irreducibles que la forman. Si D(Ga) pertenece a la clase de equivalencia p, entonces:


en donde mα es el número de representaciones equivalentes irreducibles que pertenecen a la misma clase de equivalencia, o sea el número de veces que Dα(Ga) aparece en D(Ga). Podemos determinar mα con la ayuda de las relaciones de ortogonalidad. Si efectuamos una multiplicación de lo anterior con



y efectuamos la suma sobre todas las clases de equivalencia p, se obtiene entonces:


Como un caso específico de la aplicación de esto, considérese lo que se vió en la entrada anterior concerniente al grupo D3 de las simetrías del triángulo equilátero. La descomposición en componentes irreducibles de acuerdo con la tabla dada en la entrada anterior para las representaciones matriciales irreducibles correspondientes a este grupo, usando notación propia de la Teoría de Grupos podemos representar la descomposición de la representación reducible en sus partes irreducibles de la siguiente manera:


en donde el símbolo destacado en color rojo (un símbolo + dentro de un círculo) denota la “suma grupal directa”, interpretado como la formación constructiva de una matriz extendida mediante la adición sucesiva de los sub-bloques matriciales que la formarán. Con esto se tiene entonces:


Como puede apreciarse, las matrices D(2) y D(3) intervienen en la construcción final de la representación reducible D, pero D(1) no se incluye en la construcción de la matriz extendida en virtud de que m1.=.0:


Habiendo demostrado formalmente la ortogonalidad que existe entre dos representaciones irreducibles, estamos ya en condiciones de poder demostrar las relaciones de ortogonalidad en lo que toca a los caracteres grupales χ. Para ello, tomaremos la relación fundamental de ortogonalidad:


y haciendo p.=.1 y q.=.j y sumando sobre todos los valores de los sub-índices i y .j, se tiene:


Se ha usado en esto último el hecho de que Σ.i1.=.dα, y que α y β simbolizan dos representaciones irreducibles. Si recurrimos a la definición de lo que son los caracteres grupales χ, la relación anterior nos proporciona en forma directa la relación de ortogonalidad para caracteres grupales:


Puesto que los caracteres grupales χ son invariantes bajo operaciones de similitud (semejanza), esto es, todos los elementos que pertenecen a una misma clase de equivalencia tienen el mismo carácter grupal, lo anterior se simplifica a lo siguiente (removeremos el conjugado complejo suponiendo a todos los productos ortogonales como reales):


en donde cp representa el número de elementos en una clase de equivalencia P y n es el número total que hay de clases de equivalencia. Para el caso en el cual se tienen dos representaciones idénticas, o sea α.=.β, se llega a un resultado interesante:


Podemos dar también de la siguiente manera otra interpretación a los caracteres grupales manifestados en la relación general de ortogonalidad que hay entre ellos: el carácter grupal χ(α) puede ser visto como un vector con los componentes:


en un espacio n-dimensional en donde los caracteres irreducibles χ forman un conjunto de vectores ortogonales. De este modo, resulta obvio que no puede haber más de n representaciones irreducibles distintas.

El carácter grupal χ nos puede ayudar para decidir si cierta representación es irreducible o no, dándonos un criterio de reducibilidad. Sabemos por lo que se ha demostrado arriba que:


Esta ecuación es una condición suficiente para garantizar que haya irreducibilidad, la cual puede ser demostrada en base a todo lo anterior considerando que:


Por lo tanto, nuestro criterio para reducibilidad se mantiene como válido si Σ.α.mα2.=.1. Sin embargo, puesto que todos los mα son números positivos o cero, ésta condición solo se puede cumplir si todos los números mα excepto uno de ellos, por ejemplo mμ, son iguales a cero, y mμ.=.1. Tomando como ejemplo la representación D(3)(R.i) del grupo D3, vemos que esta representación sin lugar a dudas es irreducible en virtud de que:


Ahora veremos lo que se conoce como un producto directo de representaciones. Sean:


las representaciones matriciales de dos representaciones irreducibles α y β. Entonces la representación matricial del producto directo de ambas está definida como un conjunto de elementos formados de la siguiente manera:


El carácter grupal de esto será desde luego la traza (trazo) tomada como la suma sobre todos los elementos diagonales:


Por otro lado, el carácter grupal χ de la representación del producto directo será igual al producto de los caracteres grupales de las representaciones originales α y β, lo cual implica que:


Se dá por hecho que la representación por lo general es reducible (póngase atención cuidadosa en la notación empleada en la segunda línea de lo que sigue, la cual viene de la notación empleada en la Teoría de Grupos, evitándose mediante esta notación cualquier sugerencia que pueda ser interpretada como una adición en lugar de la formación de una matriz extendida a partir de representaciones irreducibles):


De este modo, la formación de la matriz extendida reducible puede ser tomada como la “suma directa” de las representaciones irreducibles en el sentido de que se forme una matriz mayor utilizando a las representaciones irreducibles como sub-bloques matriciales.

Consultando el material visto previamente, podemos obtener para los “factores de peso” mγ la siguiente expresión:


Podemos aplicar esta relación, a manera de ejemplo, en lo que se obtuvo en la entrada anterior para el grupo de simetría D3 del triángulo equilátero, con la finalidad de obtener el producto directo:


determinándose primero que para las tres clases de equivalencia el carácter grupal toma los valores:


con lo cual:


De este modo, la representación reducible puede ser descompuesta de la siguiente manera:


Lo que hemos visto hace más aceptable el siguiente teorema de naturaleza general:
Toda representación matricial es separable en el producto de dos representaciones matriciales irreducibles:

Sobre esto último, haremos un ligero cambio de notación dejando la estructura matemática intacta:


Por otro lado, ya hemos visto que una representación matricial reducible, mediante la selección juiciosa de una base apropiada, puede ser considerada como una matriz extendible que a su vez se puede construír como una matriz de bloques en donde los bloques matriciales puestos a lo largo de la diagonal principal son sub-matrices irreducibles:


En la notación de la Teoría de Grupos, esta construcción de una matriz extendida a partir de sub-bloques matriciales irreducibles se simboliza de la siguiente manera:


Entonces es válido escribir lo siguiente:


Obsérvese que cada una de las submatrices que forman parte de la matriz extendida están acomodadas a lo largo de la diagonal principal de la matriz en un rango bien definido de valores de .j:


El cambio notacional aparentemente inocuo que se ha llevado a cabo en los super-índices adquiere una nueva perspectiva si interpretamos a la relación de las representaciones irreducibles como una relación que involucra a dos momentos angulares. Aunque las matrices de rotación son una cosa y la suma de dos momentos angulares son otra cosa, en realidad ambos conceptos comparten la misma estructura matemática fundamental, lo cual implica que la suma de los momentos angulares puede ser discutida desde el punto de vista de las matrices de rotación. En particular, la última relación grupal que se ha obtenido arriba nos conduce directamente hacia algo que se conoce como las series Clebsch-Gordan:


en donde las distintas constantes numéricas C (de color rojo) y C (de color magenta), obtenidas mediante productos internos bra-ket, dando el producto de cada par de constantes numéricas una sola constante numérica para cada elemento matricial D(.j)mm'(R) de la suma, son conocidas como las constantes Clebsch-Gordan. En las series Clebsch-Gordan y las constantes Clebsch-Gordan se tiene la clave para poder evaluar en forma metódica y sin errores los coeficientes de probabilidad relacionados con la suma de los momentos angulares (ya sea spin-spin, spin-orbital, o orbital-orbital). Este tema, por su importancia, amerita ser considerado por separado por sí solo.

La notación que está siendo utilizada en esto último es una extensión de la notación bra-ket de Dirac para poder representar matrices que contienen sub-bloques matriciales (submatrices). Ya hemos visto (en la entrada “La notación bra-ket de Dirac”) que para poder extraer de una matriz M un elemento ubicado en la posición (m1,m2) efectuando operaciones con bras y kets apropiados, el elemento debe quedar especificado de la siguiente manera:


¿Pero cómo podemos representar en la notación bra-ket de Dirac la extracción de un elemento de una sub-matriz que es a su vez un sub-bloque matricial de una matriz extendida? (Nos limitaremos exclusivamente a matrices cuyas submatrices estén puestas a lo largo de la diagonal principal, con ceros tanto hacia la izquierda y hacia la derecha como hacia arriba y hacia abajo de los sub-bloques matriciales). En realidad, no existe una convención aceptada universalmente para esto, pero una manera de “estirar” la notación bra-ket de Dirac para este propósito consiste simplemente en meter tanto en el bra como en el ket los símbolos dados a la nomenclatura matricial para etiquetar ordenadamente los renglones y las columnas de la matriz principal, y escribiendo tanto en el mismo bra como en el mismo ket los símbolos dados para etiquetar ordenadamente los renglones y las columnas de las sub-matrices. Si la matriz mayor es J con cada bloque matricial dentro de la misma simbolizado con el par (.j1,.j2), y cada submatriz es M con cada elemento dentro de la misma simbolizado con el par (m1,m2), entonces cada elemento dentro de J quedará simbolizado de la siguiente manera:


De este modo, cada elemento matricial D(.j.)m'm dentro de una “gran matriz” D(R), en notacion bra-ket de Dirac, quedará escrito de la siguiente manera:


Hecho esto, ahora daremos un salto “cuántico” estableciendo una conexion crucial con la que se tenderá un puente directo entre la Teoría de Grupos y la Mecánica Cuántica. De acuerdo con lo que se vió en la serie de entradas tituladas “Operadores de rotación” y “Los grupos de rotación”, dado un vector de momento angular J se puede especificar un operador de rotación mecánico-cuántico de la siguiente manera:


Siendo este un operador mecánico-cuántico de rotación, ¿por qué no meterlo directamente en la especificación dada arriba en notación bra-ket de Dirac para elementos matriciales D(.j.)m'm? En realidad, no hay nada que nos impida hacer tal cosa, y si lo hacemos tendremos entonces lo siguiente:


A estas alturas, teniendo en mente lo que se había visto en la entrada titulada “Matrices y sub-matrices”, podemos suponer una sub-división en bloques llevada a cabo de la siguiente manera:




Si bien suponemos que cada uno de los sub-bloques matriciales son matrices muy posiblemente “llenas” (por ejemplo, una submatriz m 7×7 cuyos 49 elementos sean todos diferentes de cero), resulta evidente que no es necesario considerar elementos matriciales de D(R) entre estados cuánticos con diferentes valores de .j porque al ser iguales a cero se desvanecerán de modo trivial. De este modo, se puede formalizar la anterior definición haciéndola válida para valores iguales de .j:


Obsérvese que por cuestiones de simplicidad se ha prescindido de las comas (como se acostumbra hacerlo), aunque es importante no olvidar que el concepto de matrices y sub-matrices sigue vigente en esto. Estos elementos matriciales son mejor conocidos en algunas obras como funciones de Wigner.

¿Realmente hemos ganado algo con este salto en complejidad? Al tratar el tema de los valores eigen posibles para el momento angular orbital Lz de una sola partícula, los eigenvalores del número cuántico magnético m estaban distribuídos en submatrices diagonales del modo siguiente:


Si estamos hablando de una sola partícula, en realidad las ganancias prácticas obtenidas del salto en complejidad que estamos dando no justifican mucho el meternos en estas disquicisiones teóricas. Sin embargo, si de lo que estamos hablando es de dos partículas, el asunto cambia porque los sub-bloques matriciales ahora corresponden a la suma de dos momentos angulares (razón por lo cual ahora representamos al momento angular como J en lugar del símbolo L para el momento angular orbital o el símbolo S usado para el momento angular de spin). Y gracias al brinco que estaremos dando, muchas cosas que ya nos son claras en la Teoría de Grupos se vuelven igualmente claras en la Mecánica Cuántica al tener allí una aplicación práctica. De este modo, vemos así que el operador mecánico-cuántico del momento angular J es reducible en el sentido de que su representación matricial consta de sub-matrices que a su vez son irreducibles.

El operador mecánico-cuántico de rotación D(R) estudiado en las entradas “Los grupos de rotación” es un operador continuo (en su forma exponencial dada arriba) al admitir cualquier valor real (en radianes) para el parámetro angular φ, mientras que el elemento grupal D(Rk) que hemos estado estudiando aquí es algo que representa un elemento de un grupo finito discreto como el que viene del grupo de simetría D3, así que parece que estamos tratando de equiparar algo infinito (continuo) con algo finito (discreto). Sin embargo, si limitamos los valores que pueda tomar el operador mecánico-cuántico D(R) a los que produzcan solo ciertos valores discretos del ángulo φ (en lugar de un rango infinitamente denso de valores posibles de φ), la conexión se puede establecer entre ambos mundos sin problema alguno. Inclusive si estamos hablando no de un número limitado de valores discretos sino de una cantidad infinitamente grande de valores discretos (como en el caso de los valores de energía eigen para el átomo de hidrógeno), la conexión se puede seguir estableciendo porque, al menos desde el aspecto matemático, el conjunto de los números enteros sigue siendo un subconjunto de los números reales.

Para el caso en el cual el número cuántico que corresponde al momento angular total es .j.=.1/2, se encuentra que el numero cuántico magnético m que le corresponde sólo puede tomar los valores de +1/2 y -1/2. Y para el caso en el cual el número cuántico que corresponde al momento angular total es .j.=.1, se encuentra que el numero cuántico magnético m que le corresponde sólo puede tomar los valores de +1, 0 y -1. Es frecuente encontrar en la literatura que a la submatriz (2j+1)×(2j+1) formada por los elementos D(.j)m'm(R) se le conozca como la representación irreducible (2j+1)-dimensional del operador de rotación D(.j)(R). Esto significa que la matriz que corresponde a un operador de rotación arbitrario no necesariamente caracterizado por un valor único de .j puede, mediante una selección juiciosa de una base apropiada, ser convertida a una forma diagonal en bloques como la que se ha esquematizado arriba (con tres bloques, uno de color verde, otro de color ciano, y el otro de color naranja), en donde cada bloque de color es una matriz cuadrada (2j+1)×(2j+1) para algún valor bien definido de .j. Más aún, no es posible descomponer cada una de estas submatrices cuadradas por tratarse de representaciones irreducibles. Para los ejemplos citados, las matrices irreducibles D(.j.) así como sus componentes respectivos D(.j.)m'm (¡no hay que confundir jamás lo uno con lo otro!) son:


En el estudio de la adición de dos momentos angulares, el hecho de que una representación matricial se pueda descomponer en la unión de dos o más representaciones irreducibles nos lleva eventualmente al descubrimiento de unas constantes numéricas conocidas como los coeficientes Clebsch-Gordan, cuya importancia es tal que el estudio de estos coeficientes es un tema completamente sinónimo al tema de la adición de momentos angulares.