martes, 11 de agosto de 2009

Funciones matriciales

Al estar manejando matrices, podemos hacerlo suponiendo que en todas ellas sus componentes son únicamente números, constantes. Pero no estamos limitados a que esto sea así todo el tiempo. Podemos definir también funciones matriciales en las cuales sus componentes no son sólo números sino que pueden ser también cantidades que dependen de alguna variable independiente. De este modo, en vez de tener una simple matriz representada como H, podemos tener una matriz representada como H(t) en la cual por lo menos una de sus entradas situada en algún renglón y en alguna columna es función de alguna variable independiente.

Posiblemente la definición más elemental que podamos asentar para una función matricial es la derivada de la función matricial, simbolizada de la siguiente manera:


para la cual tomamos la derivada de cada uno de sus componentes con respecto a la variable independiente. Explícitamente, para una matriz 3x3:


PROBLEMA: Obtener la derivada de la siguiente matriz:


Tomando la derivada de cada una de las componentes de la matriz H con respecto a la variable independiente, obtenemos la siguiente derivada matricial:


La definición que se acaba de dar para la derivada de una función matricial se puede hacer extensiva sin problema alguno para una matriz que posea varias variables independientes en lugar de una sola, recurriendo a la derivación parcial para poder obtener así derivadas parciales matriciales:


Ahora bien, estamos acostumbrados a manejar con las calculadoras electrónicas de bolsillo números y funciones tales como la función exponencial e o las funciones trigonométrica senoidal sen y cosenoidal cos, evaluando cantidades como las siguientes:

e1 = 2.718281828

e-2 = 0.135335283

sen(45°) = 0.707106781

cos(34°) = 0.829037572

Con estos cálculos numéricos no tenemos ningún problema.

Sin embargo, si alguien nos propusiese la evaluación de algo como lo siguiente:


o sea, la evaluación del número e elevado exponencialmente no a un número sino a una matriz, o como lo siguiente:


o sea, la evaluación del coseno de una matriz, posiblemente consideraríamos que está loco. Las matrices, que ya de por sí no se prestan a tantas operaciones como las que estamos acostumbrados a llevar a cabo en álgebra e inclusive en la aritmética empezando con la división, no parecen material que se preste para hacer más de lo que ya hemos visto. Sin embargo, los matemáticos son muy ingeniosos, y frecuentemente se las arreglan para inventar y definir cosas que terminan siendo de utilidad. Las mismas matrices, antes de que se definiera una regla para la multiplicación de las mismas, eran vistas en un principio como una curiosidad. Ya hemos visto que esta curiosidad resulta indispensable en la descripción del mundo sub-atómico.

Si queremos definir la exponenciación del número e a una matriz simplemente suponiéndolo como la base de los logaritmos naturales y suponiendo a la operación como la inversa de la toma del logaritmo natural de una matriz, evidentemente no vamos a llegar a ningún lado. Sin embargo, podemos definir una operación de esta índole mediante el uso de series de MacLaurin, las mismas series que recurriendo a la suma de una cantidad limitada de términos son utilizadas en las calculadoras de bolsillo para evaluar numéricamente cantidades como e-2 y como cos(34°). En el caso de números ordinarios, las calculadoras de bolsillo recurren a la siguiente serie para evaluar la exponenciación del número e a un número x cualesquiera:


Supóngase que en lugar del número x metemos una matriz cuadrada H. Entonces la definición de eH vendría siendo la siguiente:


Obsérvese que en esta definición en lugar del número 1 tenemos a la matriz identidad I. La definición dada arriba no debe presentar problema alguno, ya que podemos multiplicar cualquier matriz por sí misma cuantas veces queramos, obteniendo de este modo la exponenciación de la matriz como H2, H3, etc. Puesto que cualquier matriz cuadrada multiplicada por sí misma siempre nos produce una matriz cuadrada del mismo tamaño, al ir evaluando cada término de la serie vamos obteniendo los resultados intermedios que posteriormente podemos sumar con las reglas usuales de adición de matrices. Es así como sumamos el elemento que está en el primer renglón y en la primera columna de la matriz I al elemento que está en el primer renglón y en la primera columna de la matriz H al elemento que está en el primer renglón y en la primera columna de la matriz H2/2, y así sucesivamente, para obtener el elemento que está en el primer renglón y en la primera columna de la matriz eH. Tras esto, hacemos lo mismo con los elementos que están situados en el primer renglón y en la segunda columna, y así sucesivamente, hasta ir llenando uno por uno los espacios que definen a los componentes de la matriz eH. Cada uno de los elementos de eH será igual a una serie aritmética infinita, y si todos los elementos de esta matriz convergen hacia un valor finito, podemos considerar a la función matricial exponencial completamente definida. Considérese por ejemplo el siguiente caso:


Por definición, cualquier matriz exponenciada a cero será igual a la matriz identidad:


Utilizando el hecho de que:

H3 = H²H

H4 = H3H

H5 = H4H

etc. que nos permite ir utilizando cada resultado previo inmediato para la evaluación del producto matricial que le sigue, las siguientes matrices de la serie son:


La suma de términos matriciales para esta serie de MacLaurin es la siguiente:


Sumando todos los términos que irán en el primer renglón y la primera columna de la matriz resultante, así como todos los términos que irán en el primer renglón y la segunda columna de la matriz resultante, haciendo lo mismo para las otras dos entradas, tenemos lo siguiente:


puesto que:

1/0! - 1/1! + 1/2! - 1/3! + 1/4! - ... = e-1

1/0! + 1/1! + 1/2! + 1/3! + 1/4! + ... = e

resulta obvio que la matriz puede ser simplificada hacia la siguiente solución final:


Ahora considérese el siguiente ejemplo:


Procediendo al igual que en el problema anterior, tampoco cuesta mucho trabajo tras sumar algunos términos de la serie darse cuenta de que para esta matriz tendremos lo siguiente:


En general, sabiendo del cálculo infinitesimal para una variable x que si f(x) es una función escalar esta puede ser expresada unívocamente como una serie de MacLaurin:


en donde f n(x) representa la n-ava derivada de la función con respecto a x:


entonces podemos extender el alcance de esta definición de la siguiente manera: Si A es una matriz cuadrada entonces la función matricial f(A) queda definida de la siguiente manera como la suma de una serie infinita de términos:


en donde definimos A0 = I (la matriz identidad) en analogía con x0 = 1 para una función escalar. Es muy importante notar que en esta definición para el factor f n(0) utilizamos el escalar que corresponde a la contraparte que está siendo definida.

Para que una función matricial pueda considerarse definida (dentro de cierto rango de una variable independiente si la hay) todas las entradas de la función matricial deben de ser convergentes. Basta con que una de ellas no lo sea para que la matriz se tome como indefinida.

Un tipo de matrices que se presta fácilmente al desarrollo de funciones matriciales es la matriz nilpotente, para la cual An = O (la matriz cero) arriba de cierto valor finito de n, como en el siguiente caso:

PROBLEMA: Obténgase la función matricial exponencial para la siguiente matriz:


Las única exponente de esta matriz que no es la matriz cero es A2:


Puesto que para n = 3 en adelante todas las exponentes de esta matriz A son cero, se dice formalmente que esta es una matriz nilpotente de índice 3. En este caso:

eA = I + A + (A²)/2

La función matricial estará dada entonces por la siguiente suma:


Sumando y simplificando:


Con la definición basada en series de MacLaurin para una función matricial, la función matricial coseno de una matriz A queda definida de la siguiente manera:


Del mismo modo, la función matricial exponencial eAt que incluye a una variable independiente t (que suele representar a la variable tiempo) puede ser definida de la siguiente manera:


Obsérvese que para una matriz 1x1, una matriz de un solo elemento, la cual puede ser considerada como una variable sencilla, las definiciones que se acaban de dar arriba se reducen a las expansiones MacLaurin ya conocidas para el coseno y el exponencial.

De este modo, dada la siguiente matriz:


podemos obtener lo siguiente tras acumular unos cinco o seis términos de la serie infinita:


PROBLEMA: Dada la siguiente matriz:


Determinar la función matricial eAt.

Llevando a cabo la expansión de unos cuatro o cinco términos de la serie evaluando para ello A, A2, A3, etc., y sumando las matrices intermedias de acuerdo a la fórmula para la función matricial exponencial obtenemos con ello una matriz 2x2 cuyos componentes son series aritméticas infinitas que a su vez pueden ser reagrupadas como series exponenciales:


PROBLEMA: Dada la siguiente matriz:


Determinar la función matricial eAt.

Llevando a cabo la expansión de unos ocho o diez términos de la serie evaluando para ello A, A2, A3, etc., y sumando las matrices intermedias de acuerdo a la fórmula para la función matricial exponencial, obtenemos con ello una matriz 3x3 cuyos nueve componentes son series aritméticas infinitas que a su vez pueden ser reagrupadas como series exponenciales, dándonos de este modo la siguiente solución:


Vamos ahora a dar un uso práctico a las funciones matriciales para calcular algo que en la Mecánica Cuántica se conoce como los operadores de rotación de spin, para lo cual haremos uso de las matrices de Pauli discutidas previamente en otra entrada. Los operadores de rotación de spin, Rx(θ), Ry(θ) y Rz(θ) uno para cada uno de los ejes coordenados Cartesianos, están definidos como funciones matriciales de la siguiente manera:


Aplicando lo que hemos visto arriba, cada una de las tres funciones matriciales se reducen a matrices 2x2, empezando con la más fácil de obtener que es Rz(θ):


tras lo cual podemos obtener Rx(θ):


para obtener finalmente Ry(θ):


Si el hecho de que podemos definir una expresión con la cual podemos tener a nuestra disposición la función trigonométrica de una matriz o el exponencial de una matriz no ha asombrado aún al lector que no tenía conocimiento de estas cosas, a continuación se le presentará otra expresión que posiblemente lo deje intrigado:


El lector está leyendo correctamente. Lo que tenemos escrito a la izquierda es la representación de una derivada parcial de una función matricial no con respecto a una variable independiente sino con respecto a una matriz. En rigor de verdad, esta representación simbólica sólo tiene “sentido” siempre y cuando se lleve a cabo bajo el contexto de las series de Maclaurin. Fuera de este contexto, carece por completo de sentido alguno el hablar de la derivada de una matriz A con respecto a otra matriz B, o sea de dA/dB. Pero antes de explicar más a fondo esta relación, llevaremos a cabo primero la resolución de algunos problemas que nos resultarán de utilidad posterior.

PROBLEMA: A partir de la relación matricial de Max Born:

[Q, P] = iħI

demuéstrese que:

[Q2, P] = 2iħQ

[Q3, P] = 3iħQ2

(2) Generalizar estos dos resultados.

(1) Para demostrar la primera relación [Q2, P] = 2iħQ, tomaremos la relación fundamental de Born:

[Q, P] = iħI

y tras llevar a cabo la expansión del conmutador:

QP - PQ = iħI

llevaremos a cabo una pre-multiplicación de la relación de Born y una post-multiplicación de la misma relación por la matriz-operador que representa a la posición, Q:

Pre-multiplicación: Q²P - QPQ = iħQ

Post-multiplicación: QPQ - PQ² = iħQ

Si sumamos miembro a miembro ambas igualdades (los productos matriciales en rojo se cancelan mutuamente), obtenemos entonces la primera relación matricial:

Q²P - PQ² = 2iħQ

[Q², P] = 2iħQ

Para obtener [Q3, P] = 3iħQ², llevaremos a cabo nuevamente una pre-multiplicación y una post-multiplicación de la relación que acabamos de obtener, usando para ello de nuevo a la matriz-operador que representa a la posición:

Pre-multiplicación: Q3P - QPQ² = 2iħQ²

Post-multiplicación: Q²PQ - PQ3 = 2iħQ²

Nuevamente, sumando miembro a miembro las igualdades obtenidas:

Q3P - QPQ² + Q²PQ - PQ3 = 4iħQ²

Reacomodando:

Q3P - PQ3 - QPQ² + Q²PQ = 4iħQ²

[Q3, P] - QPQ² + Q²PQ = 4iħQ²

Ahora bien, en base al resultado obtenido previamente, la parte marcada en color rojo es igual a:

[Q², P] = 2iħQ

Q²P - PQ² = 2iħQ

Q²P = PQ² + 2iħQ

Substituyendo esto en la relación anterior, tenemos entonces:

[Q3, P] - QPQ² + (PQ² + 2iħQ) Q= 4iħQ²

[Q3, P] - QPQ² + PQ3 + 2iħQ² = 4iħQ²

[Q3, P] - (QP - PQ) Q² = 2iħQ²

Pero lo que tenemos entre paréntesis es [Q, P] que es igual a iħ de acuerdo a la relación fundamental de Born. Esto nos lleva al resultado deseado:

[Q3, P]- iħQ² = 2iħQ²

[Q3, P] = 3iħQ²

(2) La generalización propuesta, en base a los dos resultados obtenidos, será la siguiente:


[Qn, P] = niħQn-1

PROBLEMA: A partir de la relación matricial de Max Born:

[Q, P] = iħI

demostrar que para cualquier entero positivo n la siguiente ecuación matricial será válida:


[Qn, P] = niħQn-1

Podemos probar la relación deseada usando el procedimiento conocido como inducción matemática, el cual consiste en tomar primero el enunciado y evaluarlo para un valor que nos dé un resultado conocido que nos pueda servir de prueba. Para n = 0 se tiene:

[Q0+1, P] = (0 + 1) iħQ0

[Q1, P] = iħQ0

[Q, P] = iħI

Esto es cierto, puesto que es la relación fundamental de Born.

A continuación, suponemos que el enunciado es válido para un valor general k. Si podemos demostrar que siendo válido para k también es válido para k + 1, entonces será válido para todos los valores posibles de k, y el enunciado quedará demostrado. Esto es lo que haremos a continuación. Para un entero n = k tenemos:

[Qk, P] = kiħQk-1

Si esta relación para n = k es verdadera, entonces el procedimiento de inducción matemática nos pide demostrar que la siguiente relación para n = k+1 también será verdadera:

[Qk+1, P] = (k+1) iħQk

Esto se lleva a cabo reproduciendo simbólicamente los pasos que se llevan a cabo para obtener [Q3,P] , [Q4,P] , y así sucesivamente, premultiplicando y postmultiplicando.

Tomaremos [Qk, P] = kiħQk-1 y llevaremos a cabo la expansión del conmutador:

QkP - PQk = kiħQk-1

Premultiplicando y postmultiplicando lo anterior por Q:

Qk+1P - QPQk = kiħQk

QkPQ - PQk+1 = kiħQk

Sumando miembro a miembro las dos igualdades:

Qk+1 P - PQk+1 + QkPQ - QPQk = 2kiħQk

Los primeros dos términos (mostrados en magenta) se pueden agrupar bajo un nuevo conmutador:

[Qk+1, P] + QkPQ - QPQk = 2kiħQk

Por otra parte, partiendo de la misma hipótesis:

[Qk, P] = kiħQk-1

QkP - PQk = kiħQk-1

QkP = PQk + kiħQk-1

Substituyendo esto en el desarrollo previo:

[Qk+1, P] + (PQk + kiħQk-1) Q - QPQk = 2kiħQk

[Qk+1, P] + PQk+1 + kiħQk - QPQk = 2kiħQk

[Qk+1, P] + PQk+1 - QPQk = kiħQk

[Qk+1, P] + (PQ - QP) Qk = kiħQk

[Qk+1, P] + (- iħ) Qk = kiħQk

[Qk+1, P] - iħQk = kiħQk

[Qk+1, P] = (k + 1) iħQk

y la relación se puede considerar probada.

PROBLEMA: Suponiendo cierta la siguiente relación matricial de Born:


demuéstrese entonces que, para cualquier función matricial f(Q) para la cual se pueda llevar a cabo una expansión en series de Maclaurin:


De la definición de una función matricial f(Q) tenemos lo siguiente:


en donde, de nueva cuenta, se debe enfatizar que fn(0) no es una matriz, es la función uni-valuada en la variable continua que corresponde a la contraparte matricial que está siendo definida.

Usando conmutadores, tenemos entonces que:


El lado derecho de la igualdad puede ser expresado como una suma de conmutadores de la siguiente manera:


El primer término de la suma infinita de conmutadores se elimina en virtud de que el primer componente del conmutador es igual a una constante escalar (a diferencia de lo que ocurre con los demás conmutadores).

Lo anterior puede ser simplificado escribiéndolo de la siguiente manera:


Aquí podemos utilizar los resultados obtenidos en los problemas anteriores, resumidos en la relación:


para reemplazar cada uno de los conmutadores, obteniendo de este modo:


Podemos expresar el lado derecho de una manera más compacta:


Trabajando con la analogía a las series de Maclaurin como se utilizan en el caso de funciones continuas univaluadas:


vemos que podemos definir, simbólicamente, el lado derecho de la siguiente manera:


Esta “definición” de la “derivada parcial de una función matricial f(Q) con respecto a la matriz Q” sólo es válida cuando la aceptamos bajo el contexto de una expansión en series de Maclaurin para una función matricial. Fuera de este contexto, la definición carece de sentido alguno.

Una vez hecha la anterior definición, expandiendo el conmutador en el lado izquierdo de la igualdad podemos escribir entonces el resultado final al que queríamos llegar:


Si recurrimos nuevamente al uso del conmutador en el lado izquierdo, y si en el lado derecho utilizamos la h barrada ħ = h/2π, podemos expresar el resultado del problema de una manera más compacta:


Así como llevamos a cabo la expansión suponiendo en la relación de Born una función matricial f(Q) y una matriz P, podemos llevar a cabo también una expansión similar suponiendo una matriz Q y una función matricial g(P), obteniendo un resultado igualmente similar.