martes, 11 de agosto de 2009

La simetría como piedra angular

En una entrada previa titulada “Teoría del campo cristalino”, ya vimos cómo basta el efecto del campo cristalino dentro de un cristal para romper, sin necesidad de tener que aplicarle un campo magnético externo al cristal, la degeneración que hay en los niveles de energía de los orbitales atómicos 3d, dando lugar a dos niveles energéticos nuevos designados como t2g y eg con los cuales, al ser absorbido un fotón ocasionando un salto energético entre dichos niveles, se dá origen a muchas de las propiedades cromáticas de los metales de transición dependiendo de la separación energética que haya entre estos dos niveles (distinguiéndose claramente entre un campo cristalino débil y un campo cristalino fuerte). Pero el asunto de la ruptura de la simetría va mucho más profundo aún que esto, ya que va al corazón mismo de la clasificación de las partículas elementales atómicas y sub-atómicas.

Lo que Eugene Wigner empezó en los años veintes con la aplicación de la Teoría de Grupos y los principios de la simetría a la recién formulada Mecánica Cuántica no fue más que el principio de algo que terminó culminando en una nueva revolución en esta rama del conocimiento humano, reforzada con la aparición de la Electrodinámica Cuántica llevada a cabo por Richard Feynman. Pero de hecho, la elevación de la importancia del concepto de la simetría dentro de la física a un puesto de importancia preponderante ya había sido realizado de una manera insospechada antes del advenimiento de la Mecánica Cuántica moderna por Emmy Noether, calificada por muchos como una de las más grandes mujeres matemáticas de todos los tiempos, descubridora del famoso teorema que lleva su nombre, el teorema de Noether, un teorema que expresado informalmente nos dice que a cada simetría (continua) le corresponde una ley de conservación y viceversa. El teorema, publicado en 1918 bajo el título Invariante Variationsprobleme,  precedió por siete años al descubrimiento de la Mecánica Matricial por Werner Heisenberg en 1925.

Es muy posible que Emmy Noether haya sido influída en las investigaciones que la condujeron al descubrimiento de su famoso teorema por la publicación de los trabajos de Albert Einstein dando a conocer 13 años atrás (en 1905) la Teoría Especial de la Relatividad en la cual también se manejan rotaciones rígidas (ella estuvo presente en persona en una conferencia dictada por Einstein exponiendo su Teoría de la Relatividad, quedando impresionada de cómo la dinámica de la física podía ser derivada de unos cuantos principios bajo los cuales subyace la simetría), pero llevándose a cabo las rotaciones rígidas en un espacio de cuatro dimensiones, el espacio relativista representado geométricamente mediante los diagramas espacio-tiempo de Hermann Minkowski.

Si limitamos nuestro modo de pensar al punto de vista de la física clásica, en donde el espacio y el tiempo son conceptos absolutos, podemos imaginar a dos individuos en reposo el uno con respecto al otro, ambos observando un tercer objeto. Supongamos que ambos hacen mediciones sobre este objeto relativas a sus propias posiciones, decidiendo comunicarse el uno al otro sus resultados. Puesto que cada uno de ellos hizo las mediciones usando su propio sistema de coordenadas de medición, para que puedan comunicarse sus resultados necesitan transformar o traducir las mediciones que hicieron en sus propios sistemas de coordenadas al sistema de coordenadas usadas por el otro. La más general de todas las transformaciones de coordenadas para dos individuos que están en reposo absoluto el uno con respecto al otro es un desplazamiento en línea recta a través del espacio y una rotación de las coordenadas. Es fácil convencerse a uno mismo que tales desplazamientos y rotaciones cuando son descritos en forma algebraica obedecen los axiomas de la Teoría de Grupos. La Teoría de Grupos y la simetría entran en el panorama desde el mismo momento en que nos preguntamos cómo varias mediciones efectuadas en distintos sistemas de coordenadas se transforman de un sistema a otro, las leyes generales de transformaciones espaciales y temporales.

Aunque en la discusión precedente hemos utilizado traslaciones y rotaciones en el espacio tridimensional ordinario, con algo de reflexión es posible “ver” cómo las mismas ideas pueden ser generalizadas y aplicadas en un espacio-tiempo de cuatro dimensiones, el espacio-tiempo de Hermann Minkowski. Desde el punto de vista puramente simétrico, el contenido más profundo de la Teoría Especial de la Relatividad de Einstein es que las leyes de la física son invariantes únicamente para operaciones de simetría que corresponden a traslaciones y rotaciones en un espacio-tiempo de cuatro dimensiones. Si imponemos rigurosamente este requerimiento de simetría (que equivale a tomar la Teoría Especial de la Relatividad como válida), entonces descubriremos algo sorprendente, que es lo mismo que lo que descubrió Eugene Wigner. Tras explorar este aspecto de “grupo de simetría” de las transformaciones de Einstein aplicándolo a las partículas cuánticas, Wigner escribió un papel trascendental en 1939 demostrando cómo las consideraciones puramente matemáticas de la Teoría de Grupos implican que las partículas cuánticas pueden ser clasificadas. En cierto modo, este logro de Wigner tiene un parecido con el triunfo de una generación previa de científicos que lograron clasificar todos los cristales posibles mediante el uso de grupos de simetría, los llamados “grupos cristalinos” de retículas espaciales periódicas. Mientras que los cristales pueden ser representados sobre retículas espaciales (este es un tema de estudio que compete a la Física del Estado Sólido), objetos tales como las partículas cuánticas (o, para tal caso, cualquier objeto, puesto que el objeto existe en un espacio-tiempo de cuatro dimensiones) deben ser representaciones de las simetrías correspondientes del espacio-tiempo de las transformaciones de Einstein (mejor conocidas como las transformaciones de Lorentz). Wigner demostró que esto conduce directamente a la clasificación de las partículas cuánticas.

Dada la importancia del concepto de la simetría dentro de la Teoría Especial de la Relatividad y sus implicaciones profundas para la Mecánica Cuántica, antes de continuar hablando sobre el trabajo llevado a cabo por Wigner y sus sucesores vale la pena hablar un poco acerca de la esencia de la invariancia dentro de la Teoría Especial de la Relatividad.

En la Teoría Especial de la Relatividad, y como consecuencia directa de los dos postulados fundamentales de la misma (el movimiento absoluto no es detectable, la velocidad de la luz es la misma para todos los observadores independientemente del movimiento relativo que haya entre ellos), se pierden irremisiblemente los conceptos del espacio absoluto y el tiempo absoluto, de modo tal que las dimensiones espaciales de un vector en un sistema de tres coordenadas rectangulares Cartesianas no serán las mismas para observadores distintos que se mueven el uno con respecto al otro. La longitud del vector tridimensional clásico deja de ser invariante, el vector deja de ser “rígido”. Sin embargo, si construímos un vector en cuatro dimensiones (un 4-vector) de la siguiente manera (siendo la constante que multiplica a la variable del tiempo igual a la velocidad de la luz, la cual es elevada en la Teoría Especial de la Relatividad a una cantidad invariante y absoluta):


eventualmente encontraremos que es posible construír una matriz L (a la cual llamaremos matriz de Lorentz) que cuando es aplicada a este 4-vector puede cambiar sus componentes individuales pero dejando la longitud del 4-vector intacta. En este caso, definimos la longitud de este 4-vector -que permanecerá invariante- como una extensión del concepto usual de longitud para un vector tridimensional ordinario de la física clásica basado en el Teorema de Pitágoras: la raíz cuadrada de la suma de los cuadrados de las componentes (sin embargo, para el espacio relativista se requiere de una modificación que será discutida más abajo). Aplicando la matriz L a un 4-vector se obtienen las coordenadas para un observador distinto:


Podemos dar a esta ecuación matricial una forma un poco más explícita haciendo resaltar el hecho de que cualquiera de los componentes de la matriz L puede ser una función directa de la velocidad que haya entre dos observadores distintos:


¿Y cuál es la forma que tiene esta matriz L(v) cuando sus componentes son mostrados en forma explícita? Ello depende del sentido del movimiento sobre un sistema de coordenadas espaciales que haya entre los dos observadores cuyas mediciones están siendo correlacionadas de esta manera. Si ambos observadores se están moviendo el uno con respecto al otro en relación al eje-x que supondremos común a ambos, la matriz de Lorentz aparecerá de la manera siguiente en la ecuación matricial:


siendo:


Naturalmente, si el movimiento entre ambos observadores se lleva a cabo (a la misma velocidad de arriba) con el vector velocidad definido no sólo a lo largo el eje-x sino a lo largo de los tres ejes espaciales, la operación de transformación matricial será algo más elaborada, tal y como se muestra a continuación:


Por simplicidad, mantendremos el movimiento relativo entre los dos observadores sobre el eje-x. Con esto en mente, no presenta dificultad alguna el ver cómo se contruye la matriz de Lorentz. Se contruye en forma directa a partir de las transformaciones de Lorentz:


En el uso de la matriz L, hay algo que nos interesa sobremanera: el hecho de que la matriz de Lorentz L es ortogonal. Si al llevar a cabo una rotación del 4-vector con la matriz de Lorentz la longitud del 4-vector sigue siendo la misma, entonces no se puede concluír otra cosa más que el hecho de que la matriz como operador de rotación es una matriz ortogonal 4x4. Obsérvese que, para esto, hemos estirado el concepto matemático de ortogonalidad del espacio tri-dimensional de la física clásica al espacio 4-dimensional relativista.

Si restringimos la velocidad del movimiento relativo entre los dos sistemas de coordenadas (entre dos observadores distintos) a un eje-x común a ambos observadores, de modo tal que v.=.(vx), entonces toda la acción que realmente nos interesa está restringida a una matriz de Lorentz L 2x2. Si esta matriz produce una rotación en un 2-vector espacio-tiempo, se dá por hecho la existencia de una matriz de Lorentz inversa L-1. que produzca el efecto contrario. Podemos determinar esta matriz inversa de la manera usual que se aprende en un curso elemental de Álgebra Lineal, asignándole a la matriz L-1 entradas p, q, r y s a ser determinadas, y pre-multiplicando o post-multiplicando esta matriz L-1 por la matriz L a sabiendas de que una operación de rotación seguida de la operación de rotación inversa debe dejar las cosas como estaban originalmente sin cambio alguno:


Esta ecuación matricial nos produce un sistema de cuatro ecuaciones en cuatro incógnitas a ser resuelto por el método de ecuaciones simultáneas, la regla de Cramer (determinantes) o cualquier otro método de nuestra elección. Sin embargo, podemos recurrir a un truco para determinar de una manera mucho más rápida y mucho más segura y efectiva la matriz inversa de Lorentz L-1. Podemos recurrir a los criterios de simetría. Para la interpretación apropiada de la matriz de Lorentz en la Teoría Especial de la Relatividad, suponemos dos observadores distintos O y O’ moviéndose a una velocidad relativa vx el uno con respecto al otro. En las transformaciones del sistema de coordenadas de O al sistema de coordenadas de O’ podemos suponer que la velocidad vx es la velocidad a la cual el observador O que se supone a sí mismo en reposo ve que se está moviendo el marco de referencia (sistema de coordenadas) en donde viaja O’. Sin embargo, la Teoría Especial de la Relatividad no establece un observador privilegiado, de modo tal que desde el punto de vista del observador O’ él es el que se puede suponer a sí mismo en reposo, imaginando que el observador O es el que está en movimiento en su marco de referencia. Las ecuaciones de transformación de su marco de referencia al marco de referencia de O deben ser casi las mismas, ya que son completamente simétricas, excepto por un detalle: el observador O’ ve al observador O moviéndose a una velocidad vx que apunta en sentido contrario al sentido (positivo) de la velocidad usado por O en sus ecuaciones de transformación. Esto implica que el observador O’ debe utilizar no una velocidad positiva vx sino una velocidad negativa, o sea -vx, lo cual a su vez implica que:


Obsérvese que, con un cambio ligero de notación, este enunciado es exactamente el mismo que el que usamos en los operadores de rotación de la Mecánica Cuántica cuando afirmamos que un operador de rotación inverso produce un efecto de giro en un ángulo de signo opuesto al giro usual con el que se especifica el operador de rotación ordinario.

Si las ecuaciones de transformación para O’ son las mismas que las de O excepto por el signo de la velocidad, entonces la configuración de la matriz inversa prácticamente nos salta a la vista, ya que si la matriz de Lorentz L 2x2 es:


entonces la matriz de Lorentz inversa  L-1 que especifica la operación de rotación inversa (en el espacio relativista) debe ser:


De este modo, con el simple expediente de recurrir a los criterios esenciales de la simetría, nos hemos ahorrado el trabajo de tener que resolver un sistema de ecuaciones simultáneas en cuatro incógnitas para determinar la matriz inversa L-1. Naturalmente, puede quedar la duda de que el resultado obtenido realmente sea la respuesta correcta, lo cual podemos verificar de modo directo:


Puesto que los productos de las matrices son asociativos, las matrices de Lorentz 4x4 que definen a las rotaciones de los 4-vectores en la Teoría Especial de la Relatividad cumplen automáticamente con la propiedad de asociatividad. Y ya vimos que a toda matriz de Lorentz le corresponde una matriz inversa con la cual se produce la matriz identidad. Esto resulta suficiente para afirmar que las matrices de Lorentz forman un grupo multiplicativo, reflejando las relaciones de simetría inherentes dentro de la Teoría Especial de la Relatividad. Y por tratarse de matrices continuas que dependen del parámetro continuo velocidad, esto es, son L(v), lo que estamos manejando a fin de cuentas en la Teoría Especial de la Relatividad vienen siendo grupos de Lie. El concepto de la invariancia, y por lo tanto, la esencia de la misma simetría, están en el corazón de la Teoría Especial de la Relatividad.

Dejando atrás la matriz de Lorentz 2x2 y regresando a la matriz de Lorentz 4x4, las rotaciones que llevará a cabo sobre un 4-vector dejarán la longitud del vector intacta, del mismo modo en que las rotaciones que produce una matriz ortogonal 3x3 en un espacio de tres dimensiones dejan intacta la longitud del vector. Sin embargo, tenemos que tener aquí mucho cuidado, porque ello dependerá de la forma en la cual se defina la “longitud de un 4-vector en el espacio relativista. En la física clásica, la longitud de un vector r(x,y,z) en el espacio de tres dimensiones se define, recurriendo a la aplicación del Teorema de Pitágoras, como igual a la raíz cuadrada de la suma de los cuadrados de las componentes de dicho vector sobre los tres ejes coordenados rectangulares Cartesianos. Sin embargo, si tratamos de aplicar esta receta sin cambio alguno, no veremos la invariancia por ninguna parte. Para que la longitud de un 4-vector permanezca invariante tras llevarse a cabo un cambio en el sistema de coordenadas, es necesario redefinir el cuadrado de la longitud de dicho vector de una manera como la siguiente (obsérvese el signo negativo que precede a la parte que corresponde a la variable del tiempo):


Esta es la misma conclusión a la cual llegó Hermann Minkowski para poder darle una interpretación geométrica a la Teoría de la Relatividad. Este sería el cuadrado de la longitud de un 4-vector “medida” por un observador O dentro de su marco de referencia. Si otro observador O’ en su marco de referencia concuerda en utilizar también esta misma definición, en cuyo caso:


entonces, con un poco de álgebra, y usando las transformaciones de Lorentz que se han definido arriba, no cuesta mucho trabajo demostrar que:


En palabras, esto implica que las rotaciones llevadas a cabo con una matriz de Lorentz dejarán intacta la longitud de un 4-vector siempre y cuando la longitud de ese 4-vector se defina de la manera en que se ha estipulado arriba.

Puesto que otra manera de obtener el cuadrado de la longitud de un vector en la física clásica es tomando el producto punto del vector consigo mismo, para que esto se pueda lograr también dentro de la Teoría de la Relatividad se vuelve necesario modificar un poco la definición que se le ha dado al 4-vector:


agregándole el símbolo del número imaginario i al primer componente del vector:


Esto fue precisamente lo que hizo Minkowski. De este modo, si se toma el producto punto del 4-vector renglón con el 4-vector columna se obtiene el cuadrado de la longitud del 4-vector relativista en la forma en la cual permanece invariante:


La inclusión de números imaginarios puede parecer poco satisfactoria para quienes han estado acostumbrados a trabajar con la mecánica clásica. Y de hecho, al estudiar más a fondo el tema de la Teoría de la Relatividad, se llega a la conclusión de que el número imaginario i que Minkowski le metió al componente temporal del 4-vector sale sobrando si el signo negativo es proporcionado por algo conocido como el tensor métrico, que viene siendo el paso necesario para poder evolucionar de la Teoría Especial de la Relatividad a la Teoría General de la Relatividad. Representando al tensor métrico como εij, el cuadrado de la longitud del 4-vector relativista mejor conocido como el intervalo relativista, en la métrica Lorentziana que corresponde a un espacio-tiempo plano (en contraste con otras métricas utilizadas para representar espacios-tiempo curvos), se escribe de la siguiente manera que nos libera de la poco apetecible opción de tener que estar contemplando números imaginarios:


Volvamos ahora al asunto sobre cómo Wigner, suponiendo a las partículas cuánticas como objetos que por existir en un espacio-tiempo de cuatro dimensiones deben ser representaciones de las simetrías correspondientes del espacio-tiempo de las transformaciones de Einstein, demostró que esto conduce directamente a la clasificación de las partículas cuánticas. Primero, Wigner demostró que toda partícula cuántica puede ser clasificada de acuerdo a su masa en reposo. En la Teoría Especial de la Relatividad, la masa no es una cantidad que permanezca invariante. Pero podemos imaginar que si la partícula está en movimiento entonces nos movemos hacia ella hasta alcanzarla de modo tal que la partícula estará en reposo frente a nosotros. Por otro lado, si la masa en reposo de la partícula es exactamente igual a cero, como ocurre en el caso del fotón, el cuanto de la luz, siempre se estará moviendo a la velocidad de la luz y nunca podremos alcanzarla porque la velocidad de la luz es la misma siempre. De este modo, todas las partículas pueden ser clasificadas de acuerdo a su masa en reposo, sea no no igual a cero.

El trabajo de Wigner permite la existencia de taquiones, partículas hipotéticas que siempre se están moviendo a una velocidad superior a la velocidad de la luz. Los taquiones jamás han sido observados, y hasta la fecha nadie ha tenido éxito en formular una teoría matemática consistente de taquiones interactuantes. Gerald Feinberg, el físico que bautizó a los taquiones como tales, alguna vez le comentó al físico escritor Heinz Pagels que el único lugar en donde los “taquiones” podían ser encontrados era en el diccionario.

El segundo principio importante de clasificación de Wigner es que toda partícula cuántica tiene que tener un spin bien definido. Imaginando a las partículas cuánticas como pequeños trompos en movimiento continuo, este spin, en unidades especiales, podría tener únicamente los valores 0, 1/2, 1, 3/2, 2, 5/2, 3, etc., ya sea un valor entero o medio-entero, pero tenía que estar cuantizado. Si alguna vez se llegara a descubrir una partícula con un spin, digamos, de 1/6 ó de 2/5 (por ejemplo), ello implicaría una violación directa de la Teoría Especial de la Relatividad y un colapso bastante serio de las leyes de la física. Las partículas con spin entero -0, 1, 2, 3, etc.- son lo que llamamos bosones, mientras que las partículas cuyo spin es un medio entero, 1/2, 3/2, 5/2, etc., son lo que llamamos fermiones, lo cual es una distinción importante porque cada conjunto de partículas con spin reacciona con partículas del otro conjunto de manera diferente. A modo de ejemplo, el número de fermiones que entra a tomar parte en una reacción tiene que ser igual al número de fermiones que deja la reacción, lo cual podríamos considerar como un principio de conservación de fermiones. Pero no existe una ley de conservación semejante que se aplique al caso de los bosones.

Desde el punto de vista de la Mecánica Cuántica, el significado del sistema de clasificación concebido por Wigner en 1939 radica en el hecho de que las diversas propiedades que utilizó para la clasificación de las partículas cuánticas (su masa, su spin, etc.) no están sujetas al principio de incertidumbre de Heisenberg. Uno puede medir simultáneamente la masa y el spin de una partícula con absoluta precisión. Se trata de observables compatibles. Por lo tanto tales propiedades (mas no así otras) tienen valores para cada partícula en los cuales no hay ambigüedad alguna, los podemos ver como los atributos de las partículas.

Wigner fundamentó su trabajo en la idea de que las transformaciones de Einstein eran un grupo de simetría del espacio-tiempo cuatridimensional de Minkowski, una de las aplicaciones más fructíferas de los principios de simetría a la física moderna de las partículas. Fue una idea particularmente útil al ser aplicada a sistemas multi-partículas (por ejemplo, el núcleo atómico, compuesto de muchos protones y neutrones). La importancia de la idea de Wigner radica en que una vez que se ha impuesto el requerimiento algebraico de un grupo de simetría en una descripción matemática del mundo real, automáticamente se implicaba con ello que no sólo los principios esenciales de la Teoría Especial de la Relatividad tenían que ser obedecidos, sino que todas las partículas en un mundo tal podían ser clasificadas de una manera sencilla.

El mismo Eugene Wigner identificó la aplicación de la Teoría de Grupos al estudio de las partículas elementales como la tercera etapa de la Teoría de Grupos y la física. La primera etapa consistió en la esencia de la cristalografía, la búsqueda de los 32 grupos puntuales distintos y los 230 grupos espaciales con que se clasifican las simetrías de los cristales. La segunda etapa fué la búsqueda de representaciones de grupo tales como SU(2). En la tercera etapa, expandiendo la Teoría del Campo Cuántico, los físicos regresaron a la búsqueda de grupos.

¿Puede entonces considerarse el tema de la simetría en su explicación de los fenómenos que ocurren en el mundo sub-microscópico como algo más fundamental aún que inclusive las mismas relaciones de conmutación de Born para el momento angular? Una cantidad considerable de físicos parece haber adoptado este punto de vista filosófico que es lo que está guiando los pasos más recientes de la investigación científica. Gracias a la Mecánica Cuántica como el lenguaje del mundo sub-microscópico, la simetría y la Teoría de Grupos han estado jugando un papel cada vez más importante en la interpretación de los fenómenos físicos, y en su libro Perfect Symmetry el Profesor Heinz Pagels adopta precisamente este punto de vista bajo el cual todo deriva de relaciones de simetría, partiendo de una simetría perfecta (el punto de origen del Universo, un vacío total y absoluto considerado como la simetría más perfecta que pueda ser concebida en todos sentidos) que sería altamente inestable. Lo que está ocurriendo ahora desde la “Gran Explosión” (Big Bang) sería la consecuencia de una ruptura de la simetría inicial, avanzando del mayor orden posible hacia el desorden. Este punto de vista filosófico concuerda con las conclusiones de la Termodinámica que basadas en consideraciones de carácter estadístico indican que todos los sistemas avanzan naturalmente e irreversiblemente del orden hacia el desorden.

Si el concepto de la simetría es fundamental para poder explicar muchas cosas, el concepto de la ruptura de la simetría también lo es. Un ejemplo introductorio frecuentemente citado para la ruptura espontánea de la simetría que ocurre cuando el estado basal de un sistema no comparte la simetría completa de la teoría subyacente es el ferromagneto isotrópico mejor conocido como ferromagneto de Heisenberg. Podemos imaginar a un imán como algo que consiste de muchos dominios magnéticos pequeños que para nuestros propósitos podemos imaginar como pequeñas agujas de un compás, pequeñas barritas de imán pivotando libremente en todas direcciones. Supóngase que dejamos caer al azar sobre la superficie de una mesa miles de esas pequeñas agujas, cada una de ellas libre para moverse en cualquier dirección. Imaginemos también que la mesa está completamente aislada del campo magnético de la Tierra, de modo tal que no hay campo magnético exterior alguno cubriendo la mesa, así que el único campo magnético al cual responderá una aguja de compás será al campo magnético neto producido en donde se le ponga por sus vecinos cercanos que están sobre la mesa. Al principio, todas las agujas apuntan en direcciones al azar. El campo magnético neto producido por todos los pequeños imanes orientados al azar será en promedio igual a cero porque todos sus campos se substraen (vectorialmente) tan frecuentemente como se suma. Puesto que no hay ningún campo magnético neto, si le diéramos una rotación al plano de la mesa encontraríamos que no hay una dirección preferida Norte-Sur. La situación física es por lo tanto rotacionalmente invariante, o simétrica, sobre el plano de la mesa. Supóngase ahora que nos las arreglamos para orientar un montón de los pequeños imanes en una región de la mesa de modo tal que apunten hacia una misma dirección, produciendo su propio campo magnético neto. Podemos lograr esto introduciendo un campo magnético fuerte B momentáneamente en esa región, y tras esto removiéndolo. El campo magnético aplicado sobre una región pequeña hará que todas las agujas en esa región pequeña queden orientadas en una misma dirección, la del campo magnético B que se aplicó. Pero este campo magnético sobre la mesa producido por las agujas de compas alineadas hará también que las demás agujas circundantes se vayan orientando en la misma dirección, hasta que todas las agujas de compás que hay sobre la mesa estarán apuntando en una misma dirección, todo lo cual se puede describir con el siguiente gráfico animado:




De este modo, la simetría rotacional original se ha roto porque ya hay una dirección norte-sur preferida sobre todas las demás direcciones posibles, la dirección del campo magnético neto. Más aún, y esto es lo sorprendente, la nueva configuración de todas las agujas pequeñas (la simetría rotacional rota) es claramente la configuración estable, la anterior configuración no lo era. Si cambiamos manualmente la orientación de una o dos de las agujas, una vez soltadas giraran de nuevo hacia su orientación original (la del campo magnético neto local). El ferromagneto de Heisenberg ilustra las ideas básicas de la ruptura espontánea de la simetría: aunque la situación física original es simétrica, es inestable; mientras que la situación de la simetría rota es estable.

Podemos ver al ferromagneto de Heisenberg de una manera un poco más técnica y formal considerándolo compuesto de un arreglo de spins anexados a los sitios de una retícula bi-dimensional, descrito por el operador Hamiltoniano de Heisenberg (en la literatura vieja es conocido como el Hamiltoniano Heisenberg-Dirac) que está definido sobre un plano en dos dimensiones (el plano sobre la mesa en el gráfico animado de arriba) de la siguiente manera:


en donde Si y Sj representan los spins atómicos en el sitio (i,j) de la retícula, siendo rij el radio vector que une a los sitios i y j, y en donde J(rij)  es la integral de intercambio (también identificada como la constante de acomplamiento) para los átomos ubicados en i y en j, representando la fuerza de la interacción (la suma es multiplicada por 1/2 para evitar una doble sumación, habiendo algunos autores que omiten este factor de 1/2, lo cual está bien siempre y cuando se tenga en mente que la sumación es sobre i y j de modo tal que i es menor que j). Este Hamiltoniano es derivado del Hamiltoniano de intercambio para la molécula de hidrógeno, esto es, para Si.=.1/2 únicamente, pero en virtud de que predice correctamente el estado basal de cualquier ferromagneto y proporciona una buena descripción del espectro de energía cerca del estado basal, el Hamiltoniano de Heisenberg es considerado como conducente a resultados físicamente razonables a temperaturas suficientemente bajas también en el caso de un valor de S arbitrario (por temperaturas suficientemente bajas queremos decir una temperatura mucho menor que la temperatura crítica, arriba de la cual el orden magnético del ferromagneto se desvanece.) La fuerza de interacción J cae rápídamente conforme la distancia se vuelve grande. Si J es positiva, entonces el estado de energía más baja será aquél en el cual todos los spins estarán alineados, lo cual está representado en la figura (a) que corresponde a un estado basal del ferromagneto:


Llevando a cabo una rotación simultánea de todos los estados producirá otro estado basal, con la misma energía que el estado anterior, lo cual está representado en la figura (b). Pero en el caso en el cual hay ondas de spin en donde una rotación periódica espacialmente dependiente de baja energía es aplicada a todos los spins, se tiene la situación indicada en la figura (c). Una consecuencia importante de la ruptura espontánea de la simetría de una simetría continua como esta es que hay excitaciones cuya energía tiende a cero en el límite de una longitud de onda de spin grande. Puesto que no se requiere de gasto alguno en energía para girar todos los spins de (a) a (b), se requiere de muy poca energía para efectuar un cambio periódico con una longitud de onda larga. Este es precisamente el contenido de un teorema de la Teoría del Campo Cuántico conocido como el teorema de Goldstone, el cual dá origen a las partículas conocidas como bosones Goldstone o bosones Nambu-Goldstone. En el estudio de este tema, eventualmente sale a relucir como paradigma un potencial conocido como el potencial sombrero mexicano:




Obsérvese que las coordenadas en función de las cuales está dado el potencial V(φ) son la parte real  Re(φ) y la parte imaginaria Im(φ) de φ. En la Teoría del Campo Cuántico, la relación que describe a este potencial es la siguiente:


El mínimo del potencial del sombrero mexicano se ubica en:


No resulta difícil ver (intuitivamente) cómo es que se rompe la simetría. Imaginemos a una partícula puesta en la parte central del potencial. Esta es la ubicación más simétrica de todas las ubicaciones posibles, para la cual:


Sin embargo, es la más inestable. Ninguna partícula puesta en la punta del sombrero durará allí una cantidad de tiempo indefinido, ya que bastará la menor perturbación para desplazarla de su posición original el infinitésimo que se requiere para romper la simetría, haciéndola caer a otra posición menos simétrica pero ciertamente más estable:


La posición a la cual ha caído la partícula es la siguiente:


Pero igualmente podría haber caído a la posición:


De hecho, podría haber caído a una cantidad infinitamente grande de posiciones posibles.

El uso más profundo de la simetría fue descubierto alrededor de 1954, y su aplicación a la física no fue logrado sino hasta 1968. Este descubrimiento fue la teoría de campos-gauge no-Abeliana (no conmutativa) llevado a cabo por los teóricos Chen Ning Yang y Robert Mills. La idea básica propuesta por ellos consiste en generalizar la noción de una simetría interna. Supóngase que se tiene un campo de tres componentes, de modo tal que a los dos componentes que llamamos rojo y azul agregamos un tercer componente llamado “amarillo”. Podemos imaginar que rojo, azul y amarillo corresponden a los tres ejes en un “espacio interno” tridimensional. La operación interna de simetría correspondería a llevar a cabo una rotación arbitraria en este espacio tridimensional de los componentes. Si giramos los ejes matemáticamente en este espacio interno, entonces los componentes rojo, azul y amarillo son girados en el mismo grado. Si cuando hacemos esto la energía total del campo permanece inalterada, entonces hay una simetría presente. En este caso hablamos de una “simetría interna global”, porque los mismos componentes distintos del campo han sido girados al mismo grado sobre todo el espacio físico.

Ahora imaginemos, como lo hicieron Yang y Mills, que en vez de girar los componentes del campo al mismo grado, permitimos que la rotación de los componentes del campo varíen de un punto a otro en el espacio físico. Esto es conocido como una operación de “simetría interna local.” porque difiere localmente, de punto a punto, y no es igual sobre todo el espacio. Pero al hacer esto encontramos que la energía total del campo ha cambiado de modo tal que la simetría inicial se ha perdido.

Yang y Mills descubrieron que la simetría perdida podía ser sorprendentemente restaurada si se introduce otro campo multicomponente, llamado el campo gauge no-Abeliano, en el espacio real. Perimtiéndole a este campo multicomponente también girar sus varios componentes del uno hacia el otro de un punto a otro en el espacio real, se logra restaurar la simetría perdida. El papel que desempeña el campo gauge es que compensa la pérdida de simetría cuando se hace una rotación local de la rotación global interna. Vemos entonces que la existencia de una simetría interna local (una rotación entre los componentes del campo a la cual se le permite variar de un punto a otro en el espacio físico) tiene como consecuencia un campo nuevo, el campo gauge. La existencia de los campos gauge (pronúnciese “geish”) puede por lo tanto ser deducida exclusivamente de los requerimientos de simetría. De esta conclusión dramática, anteponiendo el concepto de simetría inclusive al concepto del campo, deriva la mayor parte del esfuezo investigativo contemporáneo en la Teoría del Campo Cuántico Relativista.

Cuando Yang y Mills escribieron su papel en 1954, no recibió mucha atención por parte de la comunidad científica. Los físicos admiraban el hermoso papel desempeñado por los principios de simetría que utilizaba, pero no veían la manera en la cual estas ideas podían ser aplicadas a los problemas con los cuales estaban batallando, los problemas de formular teorías realistas de la interacción nuclear fuerte y la interacción débil. Había dos dificultades de carácter teórico que se interponían en la aplicación del concepto del campo gauge a la física de las partículas cuánticas. La primera era era el problema de renormalización (una técnica para reacomodar cantidades infinitas volviéndolas finitas). La teoría del campo gauge no-Abeliano no se prestaba no se prestaba fácilmente a las técnicas de renormalización que trabajaban tan bien en el caso de la electrodinámica cuántica. Esta dificultad fue solventada hasta principios de los años setenta cuando los físicos teóricos, recurriendo a varios trucos nuevos, demostraron que la teoría del campo gauge Yang-Mills también era renormalizable. La otra dificultad era que en ninguna parte de la Naturaleza era aparente el tipo de simetría Yang-Mills. Los teóricos creían que si la teoría Yang-Mills era exacta, entonces los cuantos del campo correspondiente (las partículas) tenían que carecer de masa. Ninguna de las partículas observadas experimentalmente parecían poseer las propiedades requeridas de los cuantos Yang-Mills (los gluones). Hoy sabemos el por qué de esto. Las simetrías del campo Yang-Mills no aparecen directamente en la Naturaleza. Aparecen, en cambio e indirectamente, de dos maneras: pueden ser simetrías completamente exactas pero ocultas, o pueden ser simetrías rotas. Se ha comprobado mediante cálculos llevados a cabo con la ayuda de super-computadoras (hay problemas que sólo pueden ser resueltos numéricamente y de esta manera) que si la simetría Yang-Mills es exacta, entonces la simetría permanecerá totalmente oculta, no podrá ser observada; todos los componentes del campo que son transformados bajo la operación de simetría (como los componentes rojo, azul y amarillo) tendrán a las partículas cuánticas con las cuales están asociados confinadas a una región pequeña del espacio, sin aparecer en experimentos de laboratorio como partículas verdaderas. Permanecen ligadas formando una bolsa o pelotita, una partícula con masa. Estos últimos objetos sí existen y son observados, corresponden a los hadrones, partículas que interactúan fuertemente como el protón y el neutrón. Lo importante en todo caso es que una simetría exacta Yang-Mills implica un confinamiento de los cuantos asociados con el campo, y esta es la razón por la cual estos cuantos no son observados en la Naturaleza.

La otra posibilidad para el campo Yang-Mills es que la simetría se rompa espontáneamente, lo cual requiere que las ecuaciones de campo posean la simetría más no asi las soluciones a las ecuaciones de campo. Puesto que son las soluciones a las ecuaciones de campo las que describen el campo real de las partículas cuánticas, se concluye que en el mundo real la simetría original se rompe, y esta es la razón por la cual no podemos ver esta simetría original. La primera sugerencia de que las simetrías de campo pueden romperse de manera espontánea provino del trabajo de Peter Higgs, un físico escosés, cuya idea fue la introducción de un nuevo campo al campo gauge que hoy en día es conocido como el campo Higgs, el cual posee masa pero carece de spin. La virtud del campo Higgs es que los físicos lo pueden utilizar matemáticamente para estudiar en gran detalle los procesos de ruptura de la simetría. En cierto sentido, el campo Higgs es el “ruptor de la simetría”. Mediante la introducción adecuada del campo Higgs uno puede demostrar matemáticamente que la solución a las ecuaciones de campo que preserva la simetría se vuelve inestable. La solución inestable es como un lápiz balanceándose sobre su punta, es cilíndricamente simétrica con respecto al eje en el que se balancea, pero inestable. El más pequeño empuje lo enviará a una configuración más estable pero más asimétrica. El campo Higgs, al igual que el lápiz, escoge la solución de la simetría estable pero rota. La ruptura de la simetría en el campo Higgs afecta también a los campos gauge Yang-Mills, rompiendo la simetría de los mismos. Los campos Yang-Mills en una situación exactamente simétrica carecen de masa, pero cuando la simetria gauge se rompe, algunos de estos campos gauge que previamente carecían de masa adquieren una masa. En el caso del modelo electro-débil, tales cuantos de campos gauge con masa corresponden a las partículas W y Z descubiertas experimentalmente en 1983 en CERN. Y tienen grandes masas, más de 90 veces la masa del protón, una consecuencia directa de la simetría rota. Sorprendentemente, las masas observadas de las partículas W y Z correspondieron a los cálculos predichos por la teoría, dándole a los teóricos un aumento considerable en autoestima y confianza. Son raras las veces en los tiempos modernos en las que los teóricos tienen tal placer de ver a las ideas matemáticas abstractas realizarse con tal perfección.

El concepto de la simetría en la Mecánica Cuántica es tan esencial, tan fundamental, que ha sido llevado al extremo por un grupo creciente de teóricos que han estado trabajando con algo que se conoce como la supersimetría (abreviada en la literatura como SUSY, del inglés SUper-SYmmetry). Este concepto tomó relevancia precisamente a partir del trabajo de Peter Higgs que ha sido mencionado arriba. Para tomar una mejor idea sobre cómo funciona el concepto de la supersimetría, resulta conveniente repasar algunos ejemplos y casos particulares sobre cómo se rompe la simetría dando origen a grupos de partículas elementales diversas.

Al hablar acerca de las partículas fuertemente interactuantes de la física de alta energía y de los grupos especiales unitarios SU(2) y SU(3), debemos voltear nuestros ojos hacia el momento angular y al grupo de rotación ortogonal real O3+ (con determinante +1) para encontrar analogías. Supóngase que tenemos un electrón sujeto a un potencial atractivo simétricamente esférico de algún núcleo atómico. En tal caso, la ecuación de onda de Schrödinger puede ser caracterizada por los tres números cuánticos n, l y m. La energía, sin embargo es 2l+1 veces degenerada, dependiendo únicamente de n y de l (si el potencial es de naturaleza puramente Coulómbica, la energía dependerá únicamente de n). La explicación de esta degeneración puede ser explicada de dos maneras equivalentes:
(a) El potencial es esféricamente simétrico, independiente de los ángulos θ y  en un sistema de coordenadas esféricas.
(b) El Hamiltoniano de Schrödinger permanece invariante bajo rotaciones espaciales ordinarias.
Como consecuencia de la simetría esférica del potencial, el momento angular L es conservado. Los componentes del momento angular L, expresados en coordenadas rectangulares Cartesianas como Lx, Ly y Lz, son a su vez los generadores del grupo de rotación O3+. En lugar de utilizar operadores, podemos utilizar matrices como lo hemos hecho en las entradas anteriores. Las matrices Li son matrices (2l+1)×(2l+1) con una dimensión igual al número de estados degenerados. Estas matrices Li generan las (2l+1)×(2l+1) representaciones irreducibles del grupo O3+. La dimensión 2l+1 es identificada con los 2l+1 estados degenerados.

El operador Hamiltoniano de energía H para un potencial esféricamente simétrico en el átomo de hidrógeno, ignorando el efecto de la interacción entre el spin S del electrón y el momento angular orbital L del electrón (o sea, L·S), es el siguiente:


Si esto fuera todo, aún estaríamos trabajando con el modelo atómico planetario de Bohr. Sin embargo, un potencial más realista es el siguiente (seguiremos ignorando el efecto del acoplamiento entre el spin S y el momento angular orbital L del electrón):


El término destacado en color azul es precisamente el término que dá origen al efecto Zeeman anómalo. Es precisamente el término azul lo que origina los desdoblamientos de las líneas en los espectros de emisión y absorción que nos revelan la existencia del momento angular en el átomo de hidrógeno al ser aplicado un campo magnético a la muestra bajo análisis. En ausencia de un campo magnético, la cantidad |B| será igual a cero, y el tercer término deja de tener relevancia. Esto no significa que dicha cantidad deje de existir dentro del operador Hamiltoniano H; lo que sucede es que al no haber campo magnético el término no muestra sus efectos. Y es precisamente el término en azul el que se encarga de romper la simetría esféricamente perfecta. Por lo tanto, la manera más común de romper la simetría es mediante la aplicación de un campo magnético. Al romperse la simetría con la aplicación de un campo magnético B, se rompe también la degeneración de estados, lo cual conduce al efecto Zeeman del desdoblamiento de líneas en los espectros de emisión y absorción. El campo magnético añade un término adicional al Hamiltoniano de Schrödinger que no estaba allí presente antes de la adición del campo magnético, un término que no es invariante bajo O3+. Este es un término que rompe la simetría.

Al operador Hamiltoniano H de arriba le podemos agregar el efecto del acoplamiento entre el spin del electrón S y el momento angular orbital del electrón L de la siguiente manera obteniendo con ello un modelo más realista capaz de explicar la presencia de las líneas adicionales que son observadas en los espectros de emisión y absorción con espectrómetros con un elevado poder de resolución (término en color magenta):


Cada término adicional que se le añada a un Hamiltoniano H representa una nueva manera en la que se puede romper la simetría.

Este último ejemplo sencillo demuestra que la dificultad de la aplicación de la Teoría de Grupos a la Mecánica Cuántica radica en que los elementos del grupo no son figuras que podamos visualizar geométricamente o elementos que podamos manipular mediante las tablas usuales de multiplicación que se usan en la Teoría de Grupos. Los elementos deben encontrarse en las ecuaciones que se formulan tentativamente para un sistema, partiendo de un Lagrangiano que toma en forma refinada el concepto de la conservación de energía y lo extiende al concepto de una energía que puede ser descrita en función de campos. Habiendo muchas posibilidades de formulaciones, así como algunos escollos de carácter matemático, la búsqueda de grupos adecuados para explicar la existencia de las partículas elementales que se han ido descubriendo son el equivalente de un gambusino explorador que emprende la búsqueda de vetas de oro sin tener asegurado de antemano el descubrimiento de algo que valga la pena el esfuerzo que está invirtiendo en ello. Un elevado grado de intuición así como una inteligencia superior a la norma pueden ser cosas que ayuden en la búsqueda, pero también la buena fortuna puede dar pie a que algún teórico con tiempo de sobra encuentre algo que había sido pasado por alto. Como se ha visto en las entradas previas, el desarrollo de la Mecánica Cuántica no ha sido el fruto de un solo hombre, ha sido a fin de cuentas un esfuerzo colaborativo mundial a través de los años.

En los años treinta del siglo pasado, Werner Heisenberg propuso que las fuerzas nucleares que ligan a las partículas dentro del núcleo de los átomos eran independientes de las cargas, y que las únicas partículas nucleares con masa que se conocían en aquél entonces, el protón y el neutrón (los cuales tienen casi la misma masa), eran dos estados diferentes de la misma partícula. La diferencia fraccionaria en masa entre el protón y el neutrón (mn- mp)/mp es aproximadamente igual a 0.0014, bastante pequeña, sugiriendo que la diferencia en las masas es producida por una pequeña perturbación que depende de las cargas. Se creyó conveniente describir esta “casi” degeneración introduciendo la cantidad I con proyecciones sobre el eje-z iguales a I3.=.1/2 para el protón e I3.=.-1/2 para el neutrón, dándosele el nombre de isospin. El isospin no tiene absolutamente nada que ver con el spin, el momento angular intrínseco de la partícula, pero el vector de estado de dos componentes obedecía las mismas relaciones matemáticas que el vector de estado J.=.1/2, pudiendo tomarse como un eigenvector de la matriz de Pauli σ3. En la ausencia total de fuerzas dependientes de las cargas, hay una conservación del isospin (teniendo en tal caso el protón y el neutrón masas idénticas), teniéndose entonces una degeneración en dos estados. Equivalentemente, el Hamiltoniano H nuclear, el cual nos es desconocido, debe ser invariante bajo el grupo generado por las matrices del isospin, siendo las matrices del isospin las tres matrices de Pauli.

Ya para 1961, se habían descubierto (o creado) varias partículas elementales adicionales, recibiendo especial atención las partículas: Ξ (habiendo dos, Ξ y Ξ0) , Σ (habiendo tres, Σ, Σ0 y Σ+.), Λ (una sola partícula), y N (habiendo dos, n y p, el neutrón y el protón). Estas ocho partículas son lo que hoy se conoce como bariones. Se juzgó conveniente describirlas mediante dos números cuánticos característicos, I (isospin) y Y (hipercarga), las cuales a su vez se pueden agrupar como multipletes de isospin o de carga en donde la hipercarga puede ser tomada como la mitad de la carga promedio del multiplete. De experimentos de esparcimiento y creación de partículas, se concluyó que tanto la hipercarga (Y) como el isospin (I) eran cantidades que se conservaban bajo la interacción nuclear fuerte. Las ocho partículas aparecían entonces como una degeneración de 8 tantos, pero ahora con dos cantidades a ser conservadas. La clasificación de los ocho bariones, puestos en orden descendente (de arriba hacia abajo) en una tabla de acuerdo a la cantidad de masa de las partículas (expresada en unidades de energía MeV), queda de la siguiente manera:


En 1961, Murray Gell-Mann e independientemente Yuval Ne’eman sugirieron en lo que se conoce como “el camino óctuple” (The eightfold way, una alusión a una creencia budista de iluminación) que la interacción nuclear fuerte debería ser invariante bajo el grupo tridimensional especial unitario SU(3), esto es, debería tener una simetría SU(3). La selección del grupo SU(3) estaba basada primero que nada en la existencia de dos cantidades que se conservan, la hipercarga y el isospin, lo cual dictaba un grupo de orden 2, dos de cuyos generadores del grupo (y solo dos) conmutaban. En segundo lugar, el grupo tenía que tener una representación 8×8 para poder explicar la existencia de ocho bariones degenerados. En cierto sentido, SU(3) es la generalización más sencilla del grupo SU(2). Gell-Mann acomodó ocho generadores grupales, tres para los componentes del isospin, uno para la hipercarga, y cuatro adicionales. Todos son matrices 3x3 sin traza. Al igual que con O3+ y con SU(2), hay una infinidad de representaciones irreducibles. Una en ocho dimensiones que corresponde a las ocho partículas es la siguiente:




Podemos imaginarnos al Hamiltoniano H para los ocho bariones compuesto de tres partes (términos) distintas:


El primer término (Hfuerte) posee simetría SU(3) y es el que conduce a la degeneración en ocho tantos (que vienen siendo los ocho bariones). La introducción del segundo término (Hmediano) es precisamente un término de interacción que rompe la simetría de H, dando pie a una subdivisión en cuatro partes. Hmediano remueve la degeneración parcialmente dando como resultado los cuatro multipletes de spin Ξ, Σ, Λ y N. Estos siguen siendo multipletes porque Hmediano sigue poseyendo simetría SU(2) que aún no ha sido rota. Y finalmente, con un tercer término (Helectromagnético) que rompe aún más la simetría ya rota, la presencia de fuerzas dependientes de la carga electromagnética en el núcleo atómico desdobla a los multipletes removiendo la última degeneración, no habiendo ya estados degenerados al haberse roto por completo la simetría que impedía distinguir a las partículas individuales. Aplicando la teoría de perturbación de primer orden de la Mecánica Cuántica, se pueden calcular relaciones sencillas entre las masas de los bariones, y también se pueden obtener reglas de intensidad para los procesos de decaimientos y esparcimientos.

Sin duda alguna, el éxito más resonante del modelo SU(3) ha sido la predicción de la existencia de partículas nuevas que aún no habían sido descubiertas (o creadas) cuando dicho modelo fue propuesto. En 1961, el conocimiento que ya se tenía de cuatro mesones K y tres mesones π (todos pseudo-escalares, con spin igual a cero, y paridad impar) sugirió la existencia de otro octeto, similar al octeto de bariones. La teoría SU(3) predecía un octavo mesón, η0, con una masa igual a 563 MeV. El mesón η0, con una masa determinada experimentalmente como 548 MeV, fue descubierto poco tiempo después. Agrupamientos hechos con nueve de los diez bariones más pesados, todos ellos con un spin de 3/2 y paridad par, sugirieron un grupo de diez elementos o decuplete. Se predecía que el barión faltante debería de tener una masa de alrededor de 1680 MeV y una carga eléctrica negativa. En 1964 se descubrió la partícula Ω con carga eléctrica negativa y con una masa experimental igual a 1675 MeV habiendo una incertidumbre de ±12 MeV en la medición de la masa. Tras haberse completado este decuplete de (3/2), siguió el descubrimiento de un multiplete (5/2)+ (paridad impar) para bariones, y el establecimiento de multipletes 1 y 2+ para mesones. Estos triunfos llevaron a que la aplicación de la Teoría de Grupos para partículas fuertemente interactuantes fuera extendida más allá de SU(3), empezando con una investigación extensa de SU(6) y los grupos más complejos de dimensionalidad mayor. Eventualmente y tras muchos esfuerzos, se pudo dar con el primer modelo que fue capaz de implementar una unificación de las tres fuerzas fundamentales de la Naturaleza, el modelo SU(5) descubierto por Howard Georgi y Sheldon Glashow.

En el mismo año de 1961 que resultó tan fructífero para la física de las partículas sub-atómicas, el físico japonés Yoichiro Nambu introdujo a la física de las partículas la idea de la ruptura espontánea de la simetría para explicar el por qué las partículas sub-atómicas podrían ser llevadas a favorecer ciertos valores particulares de magnetismo o de carga eléctrica en lugar de favorecer simétricamente por igual todos los valores posibles, dándose cuenta Nambu de la importancia de la ruptura espontánea de la simetría que permite ver que detrás del aparente caos en la Naturaleza hay una simplicidad oculta. El trabajo de Nambu que culminó con el modelo Nambu-Jona Lasinio contribuyó a su vez al descubrimiento posterior de los quarks, las partículas sub-atómicas ocultas dentro de los protones y neutrones en el centro de los átomos. Posteriormente, sus colegas Makoto Kobayashi y Toshihide Maskawa extendieron en 1973 el concepto de la ruptura de la simetría para explicar la predominancia de la materia sobre la anti-materia en el Universo (en un Universo perfectamente simétrico, debería de haber tanta materia como anti-materia, lo cual no ocurre), prediciendo la existencia de los quarks top y bottom en una investigación cuya difusión publicada está catalogada entre los 100 trabajos más citados de la física de acuerdo al historiador David Pendlebury. Habría que esperar hasta 1995 para la confirmación experimental de la existencia del quark top que junto con el quark bottom pasó a formar lo que se conoce como la “tercera generación de quarks”.

Lo que hemos visto arriba acerca de la ruptura de la simetría y su impacto en la clasificación de las partículas elementales es precisamente de lo que trata la supersimetría SUSY, aunado a su poder predictivo para anticipar partículas que parecen estar “ausentes” en algunos lugares vacantes en las tablas de grupos en donde van siendo tabuladas y clasificadas las partículas de acuerdo a sus propiedades. Sin embargo, no fue sino hasta 1973 que la supersimetría empezó a atraer la atención de los físicos cuando  Julius Wess y Bruno Zumino inventaron una teoría, conocida como el modelo Wess-Zumino, la primera teoría supersimétrica del campo cuántico relativista. Aunque hay diversas variantes teóricas, lo más básico de SUSY es que relaciona dos familias de partículas: bosones y fermiones. En el Modelo Estándard de la física de partículas, las partículas Higgs (de las cuales hablaremos en mayor detalle más abajo) y los portadores de fuerza (tales como los fotones, los gluones y las partículas W y Z) son llamadas bosones, mientras que una familia diferente de partículas (la cual incluye a los electrones, los neutrinos, y los quarks) son llamadas fermiones. SUSY relaciona a los bosones con los fermiones introduciendo una partícula nueva para cada una de las partículas ya conocidas en ambas familias. Cada partícula nueva es un super-pariente de una de las partículas comunes, teniendo características similares pero con su spin difiriendo en 1/2. Esto significa que cada fermión tiene una contraparte bosónica, y viceversa. A continuación tenemos en la parte izquierda un agrupamiento de partículas del Modelo Estándard, y a la derecha podemos ver reflejadas en el “Gran Espejo” de la supersimetría las contrapartes SUSY de dichas partículas:




La razón por la cual se introdujo la simetría en la física de las partículas elementales es puramente teórica, ya que resuelve el problema de la jerarquía, siendo la jerarquía la diferencia en los tamaños de los parámetros encontrados entre las interacciones de la Naturaleza. Hay cuatro tipos de interacciones (comunmente conocidas como fuerzas) en nuestro Universo. Estas fuerzas son la fuerza fuerte, la fuerza electromagnética, la fuerza débil y la gravedad, siendo la diferencia en escalas entre la fuerza débil y la fuerza de la gravedad de 1017 tantos. Las primeras tres fuerzas (fuerte,electromagnética, débil) son descritas por teorías que en conjunto podríamos identificar como una Teoría Cuántica del Gauge, y la diferencia en escalas entre ellas es mucho menor que la que presentan con respecto a la fuerza de la gravedad. Sin embargo, la fuerza “fuerte” es más de 100 veces mayor que la fuerza electromagnética. Hay una teoría, conocida como la Gran Teoría Unificada (GUT, de sus siglas en Inglés que significan Grand Unified Theory) en donde las tres fuerzas son unificadas en una escala de energía extremadamente alta. Al inicio del Universo, cuando la temperatura era muy elevada, se cree que las tres fuerzas (dejando fuera a la fuerza de la gravedad) estaban unificadas, siendo indistinguibles una de la otra. La escala GUT, en donde esta unificación ocurre, es sin embargo mucho más grande que la escala de la fuerza débil; siendo la escala GUT alrededor de 1016 GeV (una energía fuera del alcance inclusive del Gran Colisionador de Hadrones de CERN), punto en el cual todas las fuerzas parecen ser igualmente intensas (la intensidad de las fuerzas varía dependiendo en la escala de energía). Es aquí en donde se manifiesta la posibilidad de que todas las fuerzas puedan ser unificadas como la manifestación de una sola fuerza, a una temperatura conocida como la temperatura de Planck que ciertamente se habrá dado a los pocos instantes de la creación del Universo. Se cree que conforme la temperatura del Universo fué descendiendo al irse enfriando en su expansión, la ruptura espontánea de la simetría hizo que se fueran manifestando las partículas que corresponden a una temperatura que corresponde a la escala GUT, tras lo cual el descenso continuo de la temperatura del Universo hizo que se alcanzara la temperatura que corresponde a la escala de la fuerza electro-débil, hasta llegar al actual estado de cosas. El siguiente diagrama muestra la unificación de las fuerzas conforme aumenta la temperatura del Universo (de abajo hacia arriba) hasta llegar a la temperatura de Planck en donde todas las fuerzas quedan unificadas bajo el escudo de una teoría de supergravedad, dejando atrás las temperaturas bajas en donde se rompe la supersimetría dando lugar a las diferencias entre las partículas ordinarias y sus super-contrapartes (el acrónimo QCD es una abreviatura de Quantum Chromo-Dynamics, Cromodinámica Cuántica):




Sin embargo, surge una dificultad debido a la jerarquía entre las escalas. El reto teórico consiste en reconciliar la ligereza del bosón de Higgs, el cual se cree que tal vez pueda ser ubicado en una región energética del orden de los TeV (dentro del rango explorado por el Gran Colisionador de Hadrones de CERN). Si la escala fundamental realmente se encuentra en torno a la escala GUT o la escala Planck, un cálculo “naïve” (ingenuo, no muy rigurosamente formal y exacto) de la teoría cuántica indica que la masa del bosón de Higgs también debería estar localizada en esta escala. Varios cálculos han demostrado que para poder mantener al bosón de Higgs en la región TeV se requiere llevar a cabo la “sintonía fina” de una constante del Modelo Estándard con una precisión numérica de 32 cifras decimales. La menor desviación de la constante trae como consecuencia una divergencia no deseada en la masa del bosón de Higgs, requiriendo una corrección de masa en la escala de la escala fundamental. Para solucionar el problema que rodea a la escala de masa de la partícula Higgs, una solución consiste en introducir la supersimetría SUSY dentro de la teoría, lo cual requiere meter contrapartes fermiónicas a todos los bosones y contrapartes bosónicas a todos los fermiones (como si estuviésemos viendo todo reflejado en un gran espejo). La importancia de la simetría es que controla la corrección de masa. Sin SUSY, las masas de los fermiones están sujetas a una corrección de masa que es proporcional únicamente al logaritmo de la escala fundamental y no a la escala fundamental misma. SUSY nos dice que la corrección de masa a una partícula bosónica debe ser la misma que la de su contraparte fermiónica. De este modo, si hay una contraparte fermiónica al bosón de Higgs, la corrección de la masa Higgs debe ser la misma que la corrección de masa del fermión correspondiente, y debe poder reducirse del orden de los 1016 GeV a un nivel más manejable. Se debe resaltar el hecho de que la alternativa SUSY no es la única solución posible, ya que se han propuesto otras soluciones para manejar el problema que representa la masa del bosón de Higgs.

Las teorías supersimétricas resuelven de una manera elegante el problema inherente a los procesos de renormalización en los cuales se recurre a la suma numerosa de muchas contribuciones grandes de cantidades extremadamente pequeñas que de alguna manera terminan resultando en valores finitos (algo así como un proceso de integración en el cual la suma de una cantidad infinitamente grande de pequeños infinitésimos pueden dar una cantidad fija como .0001 ó como 100 ó como 1000 en lugar de un número infinitamente grande o infinitamente pequeño, excepto que en la renormalización no manejamos infinitésimos sino cantidades discretas). Allí, la masa del bosón de Higgs está protegida de aquellas contribuciones grandes por la existencia de una clase completa de partículas adicionales, las cuales son copias de los quarks, leptones y bosones gauge del Modelo Estándar, pero revestidas con distintos valores de spin.

Realmente es una simetría atractiva la que nos ofrece SUSY, ya que los bosones pueden ser fermiones y los fermiones pueden ser bosones (al verse reflejados en un “gran espejo”). Pero persiste la duda de que tal simetría pueda ser realizada en la Naturaleza, porque jamás se han observado todas las partículas adicionales predichas por SUSY en base a sus contrapartes en el “espejo”. Esto sugiere que tal vez sea necesario “romper la simetría” entre SUSY y el Modelo Estándard, postulando algún otro mecanismo nuevo que pueda hacer que las masas de las partículas SUSY sean más grandes de lo previsto situándose más allá de nuestra posibilidades actuales de detección. De este modo, para poder resolver el problema de llevar a cabo una “sintonía fina” del Modelo Estándard, tenemos que suponer primero que nada la existencia de aquellas partículas elementales que han sido predichas pero que aún no han sido observadas, y que estas tienen masas que están más allá de nuestros límites de detección, pero no tanto que su efecto correctivo en la “sintonía fina” se vuelva más complicado de poder mantenerse intacto. Junto con esas partículas adicionales, hay que contender por lo menos con 105 parámetros nuevos (y desconocidos) como parte del paquete teórico SUSY que tenemos que asimilar, los cuales la teoría no explica (no solo las masas de las partículas, sino sus acoplamientos, sus mezclados, etc.) Aunque para ser justos, las teorías SUSY no sólo proporcionan una solución al problema de la “sintonía fina”. A cambio de esos 105 nuevos parámetros libres y una plétora de partículas nuevas con las cuales se carga al paquete, las teorías SUSY tienen el beneficio de llevar a cabo una unificación más directa de las cuatro fuerzas de la Naturaleza a una energía muy alta, algo que siempre ha despertado el interés de los teóricos.

Para poder desarrollar sus investigaciones dentro de la supersimetría, los teóricos recurren con frecuencia a lo que se ha dado en llamar la super álgebra, dentro de lo cual el tema central es la super álgebra de Lie, una generalización de un álgebra de Lie. Para dar una idea de cómo funciona esto, recordemos cómo en la Mecánica Cuántica el álgebra de los operadores está definida mediante las relaciones de conmutación entre los operadores. La generalización de este concepto se lleva a cabo mediante el conmutador de Dirac, [A,B]. Pero además de la definición del conmutador, se tiene también la definición del anticonmutador {A,B} que es igual a AB+BA. Decimos entonces que si los operadores están relacionados tanto a través de conmutadores como a través de anticonmutadores, forman parte de una superálgebra. Supóngase que se tienen un operador Hamiltoniano H y un conjunto de N operadores Qi auto-adjuntos (siendo la condición de auto-adjunto Qi.=.Qi), cada uno de los cuales conmuta con el Hamiltoniano H. Llamaremos a este sistema supersimétrico si el siguiente anti-conmutador:


para todos los:


es válido. Si este es el caso, llamaremos a los operadores Qi las supercargas del sistema. H será llamado el Hamiltoniano SUSY, siendo SUSY una abreviatura conveniente para cualquier variante de “supersimetría” que sea gramáticamente apropiada. Una álgebra SUSY está caracterizada por el número de sus supercargas, que denotamos como N. Puesto que N.=.2 ejemplifica muchas de las propiedades generales de las teorías SUSY, resulta útil estudiar este caso en algún detalle. Se requieren dos supercargas, Q1.=.Q1 y Q2.=.Q2.


En ocasiones resulta más conveniente trabajar con una supercarga “compleja” que no es auto-adjunta.


En tal caso, el álgebra SUSY implica {Q,Q}.=.H. Para hacer esto un poco más concreto, podemos llevar a cabo una encarnación específica de esta super-álgebra. Sea H1 un Hamiltoniano de interés tal que se le pueda factorizar como el producto de un operador A y su auto-adjunta A, o sea H1.=.AA. Obsérvese que esto está casi en la forma del Hamiltoniano para el operador armónico simple, excepto por la ausencia de un desplazamiento de energía:


Intercambiando el orden de los factores, se tiene otro operador, H2.=.AA. Con el operador A a la mano, se pueden definir los siguientes dos operadores:


Por simple aritmética matricial, se tiene:


De este modo, se puede afirmar que el anticonmutador de las dos cargas dá un Hamiltoniano H que es diagonal en bloques:


H1 y H2 pueden ser considerados como dos Hamiltonianos que actúan en sub-espacios del espacio original del espacio original de Hilbert asociado con el Hamiltoniano H.

¿Y qué exactamente es tan especial acerca de los operadores con las formas AA y AA? Dado un Hamiltoniano H1 para un sistema, si puede ser factorizado en el producto de dos operadores AA, entonces podemos construír otro Hamiltoniano H2.=.AA que tenga casi el mismo espectro de energía. Estos Hamiltonianos “isoespectrales” posiblemente no describan la misma cuestión física, y sus potenciales respectivos V1(x) y V2(x) tal vez tengan un aspecto radicalmente diferente. Como de costumbre, una degeneración en los niveles de energía corresponde a una simetría, en este caso la simetría es la SUSY entre los dos Hamiltonianos. Veamos primero los eigenestados del Hamiltoniano número 1. Estos estados deben satisfacer la relación de Schrödinger:


Aquí ocurre una cosa sorprendente. El operador A “mapea” los eigenestados del Hamiltoniano 1 hacia los eigenestados del Hamiltoniano 2. Esto podemos verlo de la manera siguiente:


Pero por la ecuación anterior, esto significa que:


La misma lógica trabaja en la dirección opuesta, conectando los eigenestados de H2 con aquellos de H1. Los eigenestados detrás de la “puerta número 2” satisfacen:



de modo tal que, actuando con el operador A:


Se ha demostrado con esto que H1 y H2 son isoespectrales. Para cada eigenestado de uno, se esconde por allí un eigenestado del otro con la misma energía, habiendo una excepción para la situación en la cual:


esto es, si H1 tiene un estado basal de cero energía, en cuyo caso la demostración no funciona, no habiendo necesidad de que H2 tenga también un estado basal de energía cero. Y de hecho, sólo uno de los dos puede tener una energía igual a cero en el estado basal. En la discusión que sigue, y por consistencia, arreglaremos que H1 tenga el eigenestado extra.

Para mantener las cosas simples, buena parte del tiempo nos encontramos trabajando unidimensionalmente con Hamiltonianos de la forma:



en donde el operador diferencial del momentum p está dado por (introduciremos aquí la notación de sub-índice abreviada que se acostumbra utilizar en el estudio de los campos cuantificados):


Con esto, podemos expresar el operador Hamiltoniano del modo siguiente:


Si queremos factorizar este operador Hamiltoniano H en un operador y su adjunta, posiblemente debemos empezar con un operador que es lineal en la derivada, como el siguiente:


Aquí W(x) es alguna función real que llamaremos el superpotencial. Tomando la adjunta de A invierte el signo de la derivada (lo cual es obvio notando que el momentum p es una observable y por lo tanto auto-adjunto):


Podemos conectar el superpotencial al potencial ordinario de H1 de la siguiente manera:


Con un cambio de signo, podemos reconocer esto como la ecuación de Riccati. V1(x) y V2(x) son conocidos como los potenciales emparentados, relacionados a través del superpotencial W(x). Con un paso adicional, podemos relacionar al superpotencial con la función de onda en el estado basal. Obsérvese que el estado basal de H1 es aniquilado por A, satisfaciendo la relación:


Mirando hacia atrás hacia la forma de A, podemos ver que es una ecuación diferencial de primer orden, y podemos escribir su solución como el siguiente exponencial:



Obsérvese que el estado basal de energía cero de H2 sería aniquilado por A siendo proporcional por lo tanto a:


Por la naturaleza exponencial de las mismas, una con signo positivo y la otra con signo negativo, sólo una de estas últimas dos expresiones puede producir un estado normalizable. Si una de ellas es “bien comportada”, la otra explotará. Esta es la razón del por qué solo uno de los dos Hamiltonianos emparentados puede tener un estado basal de energía cero. Esta es pues la manera en la cual se utiliza la superálgebra en el estudio formal de la supersimetría, de lo cual apenas hemos tocado aquí la superficie.

Pese a los triunfos acumulados, no todo es miel sobre hojuelas. Una predicción que se creyó que sería alcanzada en el 2011, el descubrimiento experimental de la partícula Higgs (el bosón de Higgs, mal llamada la partícula de Dios a causa de un libro escrito por el físico Leon Lederman cuyo título original era The goddamn particle que significa “la condenada partícula”, título considerado demasiado ofensivo por el editor y cambiado a The God particle, elevando inmerecidamente a esta partícula a una importancia situada muy por encima de su realidad), la única partícula elemental del Modelo Estándard que aún no ha sido observada experimentalmente, terminó en lo que parece haber sido un fracaso, al no ser detectada su presencia dentro del rango experimental de energías en el cual se pensó que sería observada, quedando como alternativas la posibilidad de elevar aún más la energía del Gran Colisionador de Hadrones de CERN, una propuesta costosa, o empezar a echarle un vistazo a otras teorías alternas que explican el por qué no había razones para esperar que el bosón de Higgs pudiera ser observado en el rango de energías disponible en CERN.

Visto en mayor detalle, el bosón de Higgs, la condenada partícula, es una partícula que resulta de la ruptura espontánea de la simetría electrodébil, y el estudio de esta ruptura de simetría en el laboratorio requiere utilizar una analogía física que reproduzca los primeros instantes de la Gran Explosión (Big Bang). Sin embargo, de acuerdo al trabajo titulado Coherent dynamics of macroscopic electronic order through a symmetry-breaking transition publicado en arXiv el 9 de junio de 2010, elaborado por varios investigadores, se ha reportado que por vez primera se observó un fenómeno conocido como Symmetry Breaking Phase Transitions (SBT) para un potencial similar al potencial de Higgs, en la escala de los femtosegundos, utilizando no un enorme acelerador de partículas sino un sistema de estado sólido así como medidas ópticas ultrarrápidas. La evolución temporal de una transición de fase por ruptura de la simetría no solo tiene aplicaciones en cosmología, también en física de la materia condensada, neurociencia y finanzas. Roman Yusupov y sus colegas reportaron haber observado este tipo de transición de fase tanto para bosones como para fermiones gracias a nueva técnica de espectroscopia basada en tres pulsos en el régimen de los femtosegundos. Las observaciones experimentales concuerdan con los resultados esperados según las simulaciones numéricas basadas en la teoría de Ginzburg-Landau. Entre los resultados más interesantes observados están las distorsiones espaciotemporales en el campo (análogo) de Higgs debidas a la aniquilación de defectos topológicos, similares a las discutidas en los modelos cosmológicos de Kibble-Zurek. Estas conclusiones han dado pie para que se sospeche que tal vez no sea absolutamente indispensable el contar con los servicios del Gran Colisionador de Hadrones para confirmar varias de las predicciones de la Teoría del Campo Cuántico, al poderse recurrir a los servicios de un chip para desenmascarar los secretos del Universo, según lo comenta el artículo titulado ¿Se esconden los secretos del universo en un chip? publicado en Nature News el 16 de marzo de 2010. Para este avance, los investigadores utilizaron tritelururo de terbio (TbTe3) y tritelururo de disprosio (DyTe3) que presentan una inestabilidad electrónica que da lugar a lo que se conoce como una transición de fase de segundo orden. A baja temperatura, esta transición de fase produce una ruptura espontánea de cierta simetría para las cuasipartículas del material. Despreciando fluctuaciones en la fase del campo, estas partículas cuasipartículas están sometidas a un potencial de energía con dos pozos, precisamente el tipo sombrero mexicano.

De cualquier modo, y pese a fracasos como el obtenido por CERN en el 2011 al no haberse detectado el bosón de Higges dentro del rango de energías en el cual se esperaba detectarlo, el concepto de la simetría y la ruptura de la simetría siguen siendo los ejes fundamentales de lo que muchos físicos de renombre consideran que terminará siendo la Teoría del Campo Unificado uniendo a la Mecánica Cuántica con la Teoría de la Relatividad, el viejo anhelo de Einstein que este último no pudo lograr en vida.

No sólo la supersimetría SUSY intenta llevar a cabo una unificación de las fuerzas fundamentales de la Naturaleza. Se ha invertido mucho esfuerzo investigativo en otra alternativa conocida como la teoría de las supercuerdas (por alguna razón, la palabra super parece ejercer una fascinación casi irresistible en su uso para describir las teorías del todo.)

La teoría de las supercuerdas, una teoría de la gravedad cuántica considerada como una extensión de la teoría de cuerdas, yendo más allá del espacio 4-dimensional relativista concebido por Einstein, requiere de 10 dimensiones para poder ser formulada matemáticamente, y una extensión de la misma considerada como una teoría de las supercuerdas de “segunda generación” fue llevada a cabo por Edward Witten, calificado como el más brillante físico de esta generación en el artículo “The Man Who Led the Second Superstring Revolution” publicado por Discover Magazine el 13 de noviembre de 2008, y como “uno de los más grandes físicos vivientes, quizás el sucesor de Einstein” en el programa “The Elegant Universe: Welcome to the 11th Dimension” elaborado por NOVA de Public Broadcasting System, va aún más lejos a partir de la sugerencia formulada por Witten en 1995 sobre la existencia de una teoría-M basada no en 10 dimensiones sino en 11. El problema con esta teoría es que carece de poder predictivo, o sea la capacidad para proponer experimentos con los cuales la teoría pueda ser definitivamente confirmada o desechada. Esta es la razón principal del por qué hay tanto escepticismo en torno a la teoría de las supercuerdas, estando incluído entre la lista de escépticos el mismo Sheldon Glashow, uno de sus más fuertes críticos (su abandono de la Universidad de Harvard pasándose a la Universidad de Boston se debió al apoyo del departamento de física de la universidad a la teoría de cuerdas; pero antes de esto hizo campaña para echar fuera de Harvard a los teóricos de cuerdas.) Es desde luego posible que los teóricos de las supercuerdas sean al final del día quienes terminen riéndose de los demás, eso no lo sabemos. Hay quienes creen que los datos recabados en la detección de colisiones de neutrinos de alta energía con partículas elementales mediante el telescopio detector de neutrinos IceCube reforzado por el telescopio detector de neutrinos Amanda (Antartic Muon and Neutrino Detector Array), ambos enterrados en la Antártida, están empezando a proporcionar evidencia experimental sobre la existencia de dimensiones adicionales utilizadas en la teoría de las supercuerdas, aunque esto sigue siendo tema de debate. Más allá de las dificultades técnicas y filosóficas presentadas por estas teorías de nueva generación se tiene el dilema de que la complejidad de las mismas las ubica muy por encima del entendimiento del común denominador de la gente ordinaria, ya que requieren de conocimientos avanzados en matemáticas que todavía hace algunas décadas estaban disponibles únicamente en clases especializadas impartidas a nivel de post-doctorado. Y esto va en contrasentido al espíritu inicial de los fundadores de la Mecánica Cuántica que suponían que detrás del aparato matemático requerido para explicar los casos de muchos fenómenos particulares debía de haber una simplicidad capaz de ser representada de una manera sencilla. La ley de la gravitación universal de Newton, expresada en su forma compacta:


resume en una simple fórmula una explicación para los movimientos de los astros, los planetas y los cometas, sintetizando de una manera sencilla un enjambre de conocimientos que estaban dispersos en muchos tratados de astronomía, pudiendo ser explicada con la simple frase “la fuerza de atracción gravitatoria entre dos cuerpos varía en razón directa del producto de sus masas y en razón inversa del cuadrado de la distancia que los separa”; mientras que la formulación Einsteniana de la Relatividad General resume en una simple fórmula de carácter tensorial la explicación de la curvatura del espacio-tiempo ocasionada por la presencia de masa-energía, pudiendo formular predicciones capaces de ser sometidas a pruebas experimentales rigurosas, y pudiendo ser explicada tambíen con la simple frase “la curvatura en el espacio-tiempo va en función directa de la presencia de masa.energía en el continuum espacio-tiempo”. Pero ni la supersimetría ni la teoría de las supercuerdas pueden ser expresadas de una manera tan clara y comprensible. En otras palabras, en vez de ir de lo complejo a lo sencillo, se ha estado yendo de lo sencillo a lo complejo.Y si al darse a conocer la Teoría de la Relatividad muchos teóricos y legos ya se quejaban de que la mente humana tiene una dificultad intuitiva tratando de visualizar dimensiones mayores al espacio tridimensional ordinario porque solo es posible moverse en 3 dimensiones espaciales, ¿cómo entonces podemos ser capaces de conceptualizar algo que requiere de 10 o más dimensiones para ser formulado? (Una manera de tratar con esta limitación es no intentar visualizar dimensiones mayores del todo sino simplemente pensando, al momento de realizar ecuaciones que describan un fenómeno, que se deben realizar más ecuaciones de las acostumbradas. Esto abre las interrogantes de que esos ‘números extra’ puedan ser investigados directamente en cualquier experimento donde en vez de mostrarse números propios de la sexta dimensión o de la octava dimensión se mostruen resultados en 1, 2, ó 3 dimensiones a científicos humanos. Así aparece la pregunta de si este tipo de modelos que se investigan en este modelado abstracto que requieren aparatos experimentales potencialmente imposibles de construír realmente puedan ser considerados “científicos”. E independientemente de las dificultades para poder llevar a cabo experimentos en la quinta dimensión o en la dimensión siete, es muy posible que si alguien llega a dar ya sea por accidente o por proeza intelectual con una Teoría del Todo que logre unificar las cuatro fuerzas de la Naturaleza y que sea capaz de explicar el origen de todo, tal teoría podrá ser tan compleja en su mero enunciado que el único que terminará comprendiéndola será su propio creador.

Posiblemente el objetivo de poder explicarlo todo a partir de un simple enunciado matemático capaz de ser formulado en un breve párrafo o en una línea de texto es un objetivo incalcanzable, un objetivo que se creía posible porque la Naturaleza parece buscar siempre las soluciones óptimas (en esto último se basa precisamente el cálculo de variaciones utilizado por Emmy Noether para postular a la simetría como un sinónimo de la invariancia en las leyes físicas). Quizá haya alguna fórmula casi mágica, compacta y concisa, que está allí afuera esperando a ser descubierta, aunque muchos teóricos contemporáneos parecen haber perdido la esperanza en ello. Si la hay, posiblemente esto requerirá de una revolución filosófica de carácter tan profundo que será comparable a la misma revolución que dió origen a la Mecánica Cuántica en las primeras dos décadas del siglo pasado. Porque la mayor ironía de todas es que algunas veces las cosas más sencillas posibles son las que cuestan más trabajo de entender a plenitud.

La carencia de una Teoría de la Gravedad Cuántica nos indica que todavía falta mucho por hacer. Posiblemente cuando esto último sea resuelto seremos capaces de descubrir y predecir fenomenología nueva que ni siquiera nos pasa por la mente en estos momentos del mismo modo de que en los tiempos del Rey Arturo en Inglaterra a los Caballeros de la Mesa Redonda jamás les pasó por la mente que en un futuro no muy distante pudiera haber televisiones, teléfonos celulares, computadoras de escritorio de bajo precio, y calculadoras científicas de bolsillo.

Independientemente de las dificultades de carácter teórico y técnico a ser enfrentadas en el futuro por quienes están haciendo avanzar a la ciencia de las partículas elementales, quedan pocas dudas de que la simetría seguirá actuando como un eje rector que guiará las investigaciones que se sigan emprendiendo en el futuro, seguirá siendo una piedra angular. La gran esperanza de la “Gran Unificación” de las cuatro fuerzas fundamentales de la Naturaleza, desde luego, es que puedan ser unificadas de alguna manera, quizá bajo una gran super-ecuación o quizá bajo un gran super-grupo del cual derive todo a través de la ruptura de la simetría. Ese super-grupo vendría siendo el equivalente del Santo Grial en la física atómica y nuclear, y hasta ahora su búsqueda ha resultado ser tan ardua y tan elusiva como la del mismo Santo Grial, complicada por el hecho que cada nueva pregunta generalmente trae consigo más preguntas que respuestas.