martes, 11 de agosto de 2009

Matrices continuas

Para la resolución de problemas de la Mecánica Cuántica tales como el problema del oscilador armónico simple, el punto de partida es la eigen-ecuación fundamental que se puede escribir de la siguiente manera:

Oξ = cξ

En esta ecuación, el operador matricial O actuando sobre un vector ξ reproduce al vector ξ multiplicado por una constante multiplicativa que proporciona los eigen-valores de la variable representada por el operador matricial O. Si el operador matricial O es la matriz H que representa a la energía del sistema, entonces la constante c puede ser cualquiera de los valores discretos E que puede tomar la energía del sistema y que son susceptibles de poder ser medidos en el laboratorio, esto es:

Hξ = Eξ

La solución del problema dentro de la Mecánica Matricial se reduce a encontrar los valores propios o valores característicos (eigen) de la matriz H. Cada uno de estos valores corresponderá a cualquiera de las energías que podrá tomar el sistema. En casos como el del oscilador armónico simple, el sistema no puede “vibrar” a cualquier valor posible de energía, la energía está discretizada en cuantos bien definidos, estando vedados los valores intermedios de energía que pueda haber entre esos cuantos. Esto explica el espectro característico de rayas emitido por fuentes luminosas en las cuales los átomos gasificados de algún elemento son bombardeados por una fuente de energía. En general, la discretización en niveles bien definidos de energía de lo que de otra manera sería un continuum de energías admitiendo cualquier valor posible tiene que ver con sistemas ligados (bounded) como en el caso del oscilador armónico simple en donde la partícula tiene su movimiento restringido a lo largo de un eje sin poder escapar de la fuerza central que la retiene, o como en el caso de una partícula encerrada dentro de una caja con paredes sólidas, o como en el caso de un electrón que está atrapado bajo el potencial atractivo del núcleo de un átomo de hidrógeno.

Sin embargo, muchos de los casos físicamente interesantes involucran cantidades que no muestran discretización alguna de la variable física que está sujeta a medición. Un ejemplo de ello es el de una partícula libre viajera, cuyo momentum p puede poseer cualquier valor posible sin que esté “subdividido” en niveles discretos bien definidos entre los cuales ya no haya valores intermedios. No es posible la postulación de un operador matricial del momentum P que actuando sobre un vector ξ nos produzca un conjunto discreto de valores del momentum p (así sea infinitamente grande):

Pξ = pξ

por la sencilla razón de que para la partícula libre viajera no hay ninguna restricción, ni siquiera en principio, sobre los valores que pueda tomar su momentum. ¿Significa esto que la Mecánica Matricial no puede ser utilizada para el estudio de situaciones físicas en las cuales no hay discretización alguna del parámetro físico que está siendo medido? No necesariamente. Pero para poder abarcar el caso de situaciones en las cuales lo que vamos a medir pueda tomar libremente cualquier valor posible en el laboratorio sin que haya razón para esperar discretización alguna, tenemos que dar el equivalente matemático a un “salto de fé”, estirando las matrices más allá del concepto fundamental bajo el cual fueron concebidas.

En todos los cursos introductorios que tratan por vez primera acerca del tema de las matrices, una matriz es definida como un arreglo rectangular de elementos acomodados en m renglones y n columnas, usándose como ejemplo algún arreglo como el siguiente:



Cualquier elemento dentro de la matriz es identificado mediante su posición de acuerdo al renglón y a la columna en la que se encuentra. Así, en la matriz A de arriba que consta de cinco renglones y cinco columnas, el elemento en el segundo renglón y la tercera columna es el número 1, lo cual podemos escribir como:

[A]2x3 = 1

En general, podemos visualizar cualquier matriz como una especie de “caja” subdividida en recuadros dentro de los cuales podemos meter los elementos que queramos (siempre y cuando sean del mismo tipo), ya sea números, variables, o inclusive otras matrices:



Este ordenamiento convencional supone que no hay absolutamente nada entre dos renglones contiguos o dos columnas contiguas. Así, entre el elemento puesto en el tercer renglón y la segunda columna, y el elemento puesto en el tercer renglón y la tercera columna, no hay absolutamente nada. Estas matrices son matrices discretas, además de ser finitas en tamaño.

Como consecuencia de sus investigaciones dentro del campo de la Mecánica Matricial, Werner Heisenberg ayudado por Max Born descubrió que para poder describir los fenómenos del mundo sub-microscópico no era suficiente contar con matrices discretas finitas, era necesario suponer la existencia de matrices discretas infinitamente grandes:




Este tipo de matrices es justo lo que necesitamos para poder analizar sistemas ligados en los cuales tenemos partículas atrapadas que poseen ciertos niveles de energía bien definidos, como ocurre en el caso del oscilador armónico simple para el cual a escala sub-atómica sólo puede oscilar a ciertas frecuencias fijas que a su vez corresponden a ciertos niveles de energía fijos.

Las matrices discretas infinitas nos resuelven el problema de análisis -dentro de la Mecánica Matricial- de sistemas sub-atómicos ligados, y estas matrices siguen siendo construídas en base a casilleros bien definidos dentro de los cuales se van poniendo los elementos uno a uno, no habiendo nada entre un casillero u otro.

Pero los sistemas ligados no son lo único que ocurre en la naturaleza. También tenemos sistemas no-ligados, entre los cuales el ejemplo sobresaliente ya mencionado es el de la partícula viajera libre que puede tomar cualquier valor posible de momentum sin que dicho valor esté necesariamente atado a un conjunto de valores discretos. Esto es lo que nos lleva a postular la definición matemática de lo que llamamos matrices continuas.

Una matriz continua es una matriz que podemos simbolizar como Maxb. A primera vista, parece una matriz como las que ya hemos visto, en donde a es el número entero que nos especifica el renglón y b es el número entero que nos especifica la columna en donde está situado el elemento de la matriz que queremos encontrar. Sin embargo, a y b no son números enteros, son números reales que en principio pueden tomar cualquier valor dentro de un rango posible de valores. Esto significa que una matriz con un elemento especificado por la combinación de valores:

a = 3.4632

b= 0.1534

es perfectamente posible. Y significa también que la matriz es una matriz infinitamente densa en el sentido de que no importa cuántas veces la subdividamos en renglones y columnas, siempre habrá una infinitud de renglones y columnas posibles entre los renglones y columnas que tracemos en la misma.

Si hemos de tratar de imaginar lo que pueda ser una matriz continua, la podemos tratar de visualizar de la siguiente manera:




Esta matriz continua es una matriz para la cual el elemento situado en el “renglón” a = 1.25 y la “columna” b = 2.25 tenemos al elemento -0.458.

Tal vez resulte sorprendente para muchos el descubrir que el concepto del producto de dos matrices AB que se había definido (en ese orden) para dos matrices A y B -siempre y cuando el número de columnas de la matriz A sea igual al número de renglones de la matriz B- se puede extender al caso de dos matrices continuas, como lo muestra la siguiente figura:




Suponiendo que ambas matrices continuas están graduadas de tal manera que las subdivisiones de las “reglas” horizontales y verticales están ranuradas en múltiplos de 0.5, de la primera matriz se puede ver que en la primera matriz se ha identificado el elemento situado en el renglón a1 = 2.25 y en la columna b1 = 0.75, el cual tiene un valor de 0.31, mientras que en la segunda matriz se ha identificado el elemento situado en el renglón a2 = 1.25 y en la columna b2 = 2.25, el cual tiene un valor de -0.74. Si vamos a multiplicar ambas matrices continuas, entonces tenemos que recordar la definición básica de lo que es el producto matricial cuando se trata de dos matrices discretas, de acuerdo con la cual el elemento cij situado en la matriz resultante se obtiene sumando los productos parciales de acuerdo con la siguiente prescripción:


Esta definición nos dice que si en una matriz discreta tomamos los elementos puestos a lo largo del renglón i de la primera matriz y los multiplicamos uno a uno con los elementos puestos a lo largo de la columna j de la segunda matriz, obtendremos un valor que deberá ir puesto en el renglón i y la columa j de la matriz resultante.

Considerando que en cada una de las matrices continuas tenemos no una cantidad discreta de elementos sino un continuum de valores, resulta obvio que la sumación de la definición para un producto matricial debe ser reemplazada por una integral propia del cálculo infinitesimal. Sin embargo, lo demás permanecerá igual: tomando el continuum de valores puestos a lo largo del renglón seleccionado en la primera matriz, y el continuum de valores puestos a lo largo de la columna seleccionada de la segunda matriz, formando el producto conjunto de dichos continuums y llevando a cabo la integración obtendremos el valor del elemento que va colocado en la nueva matriz en una posición que corresponde a la posición del renglón de la primera matriz y a la posición de la columna de la segunda matriz. En el ejemplo mostrado arriba, se ha supuesto que el elemento resultante del producto matricial que va puesto en el renglón a3 = 2.25 y en la columna b3 = 2.25 tiene un valor de -0.92.

Si a lo largo del renglón de una matriz continua tenemos una transición suave de valores dentro de cierto rango (los límites numéricos reales de la matriz), entonces el conjunto de valores se debe poder representar como una función f(x). Y si a lo largo del renglón de una matriz continua tenemos una transición suave de valores dentro de cierto rango, el conjunto de valores se debe poder representar como una función g(y). Es la integral de este producto conjunto lo que nos dará el valor numérico que corresponde a cada punto situado dentro de la matriz que resulta del producto de dos matrices continuas.

Del mismo modo en que pudimos definir el producto de dos matrices continuas, podemos definir el producto de una matriz continua y un vector que a su vez ya no puede ser el vector formado por una cantidad discreta (así sea infinita) de elementos, el cual tiene que ser necesariamente un vector continuo. Es importante que quede claro lo que queremos decir al hablar acerca de un vector continuo, ya que un vector con una cantidad infinitamente grande de elementos no necesariamente es un vector continuo. El siguiente vector en el espacio Euclideano usual Rn (en donde se aplica el teorema de Pitágoras como base de la métrica):

v = (a1, a2, a3, a4, ..., an)

es un vector discreto finito que consta de n componentes. Si n es infinito (n = ∞):

v = (a1, a2, a3, a4, ...)

entonces el vector v ya no es un vector finito. Sin embargo, sigue siendo un vector discreto, ya que cada uno de sus componentes se puede poner en correspondencia biunívoca con el conjunto de los números enteros.

1 ↔ a1
2 ↔ a2
3 ↔ a3
........

Pero si el vector v es un rango de valores entre dos números reales, por ejemplo entre 2.0 y 8.5:

v = [2.o, 8.5]

entonces el “vector” es necesariamente un vector continuo, ya que la infinitud de números que hay entre los dos límites no puede ser puesta en correspondencia biunívoca con el conjunto de los números enteros.

Falta ahora definir lo que entenderemos por la multiplicación de una matriz continua con un vector continuo. En el caso de las matrices discretas, la multiplicación de una matriz A con un vector v en ese orden se interpreta operacionalmente como un operador A que actúa sobre un vector v transformándolo en otro vector v':

Av = v'

El vector resultante v' lo podemos tomar como un vector con la misma cantidad de elementos que hay en el vector v, aunque las componentes individuales puedan cambiar. Del mismo modo, en el mundo del continuum, podemos tomar la notación simbólica dada arriba como igualmente válida para una matriz continua y un vector continuo.

La siguiente figura intenta representar la forma en la cual una matriz continua (infinitamente densa) actúa sobre un vector continuo para producir un elemento del vector transformado (nótese que para esta operación estamos aplicando la misma “regla de los dos dedos índices” mediante la cual apuntamos desde la izquierda con el dedo índice izquierdo al “renglón” de la matriz continua que podemos tomar como el renglón posicionado en a = 0.31, el cual será multiplicado “componente por componente” con cada uno de los componentes de los que consta el vector continuo, produciéndose así el nuevo elemento del nuevo vector que corresponderá en su colocación dentro del vector columna a la posición a la posición del renglón dentro de la matriz continua):




A diferencia de la situación que teníamos en el caso de las matrices y los vectores discretos, nos vemos obligados aquí a subdividir tentativamente “en pedacitos” tanto al renglón seleccionado de la matriz continua (los pedacitos Δx se muestran de color azul) como al rango interior del vector columna (los pedacitos Δy se muestran de color rojo), multiplicados uno a uno, y el resultado de los productos parciales finalmente sumado para obtener el valor específico que corresponde al vector transformado en esa posición. El valor numérico de 0.81 obtenido en la figura de arriba debe verse como una aproximación discreta, la cual irá mejorando conforme vayamos subdividiendo cada renglón de la matriz (en azul) y el vector columna (en rojo) en una misma cantidad de “pedacitos” cada vez más grande, hasta que en el proceso límite infinito la suma se convierte en la integración típica del cálculo infinitesimal.

Para que la última figura pueda representar correctamente el producto matricial entre una matriz continua y un vector continuo tenemos que seguir las mismas reglas que las utilizadas en el caso de las matrices y los vectores discretos, en donde si multiplicamos una matriz A por un vector columna v lo que obtenemos es un vector renglón v’:




De este modo, en el ejemplo de arriba tomamos una matriz continua cuyo orden es 6.0×6.0 (si fuese una matriz discreta cuyo orden fuese 6×6, estaríamos hablando de una matriz formada por seis renglones y seis columnas), y tomando el renglón posicionado en el lugar a = 0.31 de la matriz continua llevamos a cabo la multiplicación con el vector columna continuo v, depositando el resultado de la “multiplicación continua” en el vector renglón en la posición v’0.31 de dicho vector de modo tal que tendremos v’0.31 = 0.81. Obsérvese cómo mediante un sub-índice que es a su vez un número real (en lugar de un entero positivo) podemos localizar dentro de un vector continuo cualquier “elemento” del mismo.

A estas alturas, el matemático “puro” pudiera objetar que se podría prescindir por completo de la terminología matricial que se ha estado utilizando aquí, poniendo en su lugar la terminología usual que corresponde a las funciones matemáticas ordinarias. Al hacer esto, podríamos reemplazar el concepto de la matriz continua M con el concepto de una función de dos variables tal como F(x,y), por ejemplo:

F(x,y) = x² -3xy + 2y²

de modo tal que cualquier valor numérico dentro del “plano” rectangular queda plenamente especificado, y podríamos reemplazar el concepto del vector continuo con el de una función en una sola variable (la “coordenada” que especifica un lugar dentro del vector). Y de hecho esto es lo que usualmente se hace. Sin embargo, en la Mecánica Matricial la terminología referente a las matrices continuas está implícita en mucha de la literatura, y sin esta terminología corremos el riesgo de perder por completo la perspectiva de la aplicación a la física del asunto.

Ahora bien, si definimos una función F(x,y) como una matriz continua, y si definimos una función f(x) como un vector, entonces cualquier estudiante de álgebra sabe perfectamente que el producto de ambas funciones es conmutativo, esto es:

F(x, y) f(x) = f(x)F(x,y)

Entonces, ¿que caso tiene andarnos metiendo en las complejidades de la no-conmutatividad y el andar metiendo matrices en el asunto cuando no parece ser algo indispensable en nuestros asuntos?

Si F(x,y) fuese simplemente una función continua en dos variables como la del ejemplo que se ha dado arriba, entonces el andar metiendo conceptos matriciales en esto estaría completamente injustificado. Sin embargo, hay casos en los cuales F(x,y ) no es simplemente una función continua de dos variables, sino un operador en dos variables, y en tal caso no es posible invertir el orden de los factores sin alterar radicalmente el significado de lo que estamos haciendo. Considérese el siguiente operador diferencial expresado en dos variables:


Obviamente, en un caso como este no es lo mismo Pf(x) que f(x)P, ya que por convención casi universal un operador diferencial siempre actúa sobre lo que tiene a su derecha, y no sobre lo que tiene a su izquierda. Y si dentro de una matriz sus componentes no son simples números sino operadores diferenciales, entonces la no-conmutatividad se refuerza de modo extraordinario. Esto lo guardaremos para uso posterior cuando tratemos más a fondo el tema de la Mecánica Ondulatoria.

Simbólicamente, al tomar el producto de una matriz continua A por un vector continuo que llamaremos ψ, para poder tener definido el producto tenemos que extender la definición matemática básica para la multiplicación de una matriz discreta y un vector discreto (los sub-índices i y k son números enteros):


dando la siguiente definición para el caso de una matriz continua y un vector continuo (los sub-índices q y q' son números reales):


o, más apropiadamente, considerando que A es una función de las variables reales q y q’:


Aquí podemos tomar en cuenta el hecho de que una función uni-valuada como ψ(q) puede ser representada como un vector columna, como lo hemos hecho arriba, o como una matriz diagonal mediante el uso de la función delta:


Gráficamente, podemos tratar de visualizar esta muy peculiar matriz diagonal continua del modo siguiente:




Estúdiese con detenimiento lo que tenemos aquí arriba. Se trata de una matriz continua cuyo valor es exactamente igual a la unidad para q = q’, y es igual a cero para cualquier otro valor qq’, siendo q y q’ variables reales cuyo rango va desde 0.0 hasta 4.0. O sea que el único lugar en donde la matriz no es igual a cero es a lo largo de la diagonal principal, a lo largo de la línea de color rojo, siendo igual a cero en el resto del “área” de la matriz. De este modo, nos es posible representar un vector continuo como una matriz continua dándonos una mayor flexibilidad en las manipulaciones simbólicas que queramos llevar a cabo.

El que se puedan definir matrices continuas sobre las matrices discretas que ya se conocían refleja una realidad matemática fundamental, la existencia de dos tipos diferentes de infinitos, el infinito mediante el cual se pueden poner los elementos de un conjunto en correspondencia de uno-a-uno (biunívoca) con el conjunto de los números enteros, y el infinito en el cual tal cosa no es posible porque se trata de algo mucho más infinitamente denso que corresponde no a la densidad de los números enteros sino a la densidad de los números reales. Indudablemente, el conjunto de los números reales incluye al conjunto de los números enteros, pero no es posible que el conjunto de los números enteros incluya al conjunto de los números reales.

Y al igual que en el tratamiento de las matrices en donde podemos postular matrices continuas además de las matrices discretas, la realidad sobre la existencia de dos tipos distintos de infinitos puede ser extendida también a otros campos de las matemáticas como en el caso de la teoría de los grupos. La teoría de los grupos, nacida de los trabajos iniciales de Evariste Galois, tuvo su punto de partida en los grupos de permutación, y en estos casos estamos hablando de grupos discretos (ya sea finitos o infinitos) que resultan sumamente útiles para obtener muchos resultados importantes que se pueden obtener en la Mecánica Cuántica con la aplicación en ella de la teoría de grupos, en virtud de que la teoría de los grupos nos proporciona esencialmente las matemáticas de la simetría. Un ejemplo de un grupo discreto finito es el grupo de las rotaciones posibles del triángulo equilátero en donde se requiere que la operación de rotación aplicada al triángulo equilátero nos produzca otro triángulo equilátero en la misma posición aunque con los vértices cambiados:




Tras el trabajo pionero de Evariste Galois en Francia, el matemático noruego Sophus Lie tuvo una idea genial: ¿por qué no postular la existencia de grupos continuos, además de los grupos discretos que ya se tienen, para obtener nuevos resultados? Esta idea sencilla pero importante fue lo que le permitió a Sophus Lie el desarrollo de una teoría de la simetría continua de objetos y estructuras matemáticas, y fue así como llegó al descubrimiento de los grupos continuos conocidos como los grupos Lie y el álgebra requerida para poder manejar dichos grupos continuos, el álgebra Lie. Entendiblemente, para poder llevar a cabo el estudio de los grupos continuos es necesario combinar la teoría matemática de los grupos con las herramientas del cálculo infinitesimal, lo cual ciertamente complica las cosas, pero este es el precio que hay que pagar para poder avanzar hacia nuevo territorio. Como pudiera anticiparse, la postulación de los grupos de Lie requiere asentar dicha teoría sobre las mismas bases en las que están asentados los grupos discretos de Galois: (1) la postulación de una operación binaria que a manera de “multiplicación” toma dos elementos cualesquiera del grupo continuo y nos produce un tercer elemento que también forma parte del grupo (esta operación es de carácter general y no necesariamente involucra números; de hecho a la teoría de los grupos de Galois se le conoce como una “matemática sin números”), (2) la existencia de un elemento identidad el cual si es uno de los dos elementos de la operación binaria que se ha definido nos produce el mismo elemento con el cual es apareado, (3) la existencia de un elemento inverso para cada elemento del grupo que tomados conjuntamente nos producen el elemento identidad, y (4) la plena validez de la propiedad asociativa. Como ejemplos de los grupos continuos de Lie podemos citar al espacio Euclideano Rn con la suma ordinaria de vectores definida como la operación binaria del grupo, el llamado “grupo del círculo” S1 (el conjunto de números complejos cuyo valor absoluto es igual a la unidad, bajo la operación de multiplicación), el grupo de Lorentz (el grupo de todas las transformaciones de Lorentz llevadas a cabo en el espacio-tiempo de Minkowski dentro de la Teoría Especial de la Relatividad), el grupo de Poincaré (el grupo de Poincaré de las isometrías del espacio-tiempo de Minkowski), los grupos excepcionales de Lie (tales como G2, F4, E6, E7 y E8), el grupo unitario U(n) que consiste de todas las matrices unitarias n × n con entradas complejas dentro del cual se tiene al grupo especial unitario o “Special Unitary group” SU(n) conformado por las matrices unitarias cuyo determinante es igual a la unidad, el grupo de Heisenberg, los grupos de spin utilizados para el estudio de los fermiones dentro de la teoría del campo cuántico, y el grupo U(1)×SU(2)×SU(3) que es de importancia fundamental para poder comprender el Modelo Estándard en la física de las partículas. Como puede verse, el ampliar la teoría de los grupos discretos para fundar una teoría de grupos continuos es algo tan fértil como el ampliar el concepto de las matrices discretas para postular la existencia matemática de matrices continuas.

Como es de esperarse, al dar el salto de las matrices discretas hacia las matrices continuas el delta de Kronecker δij tiene que ser subsituído por la función delta de Dirac δ(x), reflejando los dos tipos posibles de infinitos.