Más formalmente, decimos que una matriz es Hermitiana si es igual a la transpuesta del conjugado complejo de la misma, o sea:
H = (H*)T
o lo que es lo mismo, igual a la transpuesta de su conjugado complejo:
H = (HT)*
La transpuesta del conjugado complejo de una matriz es algo que ocurre con tanta frecuencia que la llamamos adjunta Hermitiana (también se le llama matriz trasconjugada), denotándola con el símbolo de una daga puesto como exponente:
H†
De este modo, una definición más elegante de una matriz Hermitiana es aquella en la cual se le define como una matriz que es igual a su trasconjugada:
H = H†
Ya se había mencionado que el hecho de que el conjunto de líneas espectrales para el espectro del hidrógeno sea infinitamente grande nos llevará invariablemente a la consideración de matrices infinitas. Sin embargo, no todo en la Mecánica Cuántica requiere de matrices infinitas. Pronto nos toparemos con una característica física bautizada con el nombre de spin (en alusión a la rotación que podemos imaginar que está dando un trompo girando rápidamente sobre su eje) para cuya descripción a nivel sub-atómico se recurre a las matrices de Pauli, las cuales tienen la propiedad de que son matrices Hermitianas:
Estas matrices son matrices cuadradas 2×2 que constan de dos renglones y dos columnas. Pero en la Mecánica Cuántica podemos extender el concepto de las matrices de Pauli hacia matrices 3×3 que resultan ser las siguientes y las cuales también son matrices Hermitianas:
Desde luego, podemos extender el concepto de las matrices de Pauli hacia matrices 4x4 que resultan ser las siguientes y las cuales también son matrices Hermitianas:
Debe quedarnos claro que, en la Mecánica Cuántica, nuestro más importante recurso es y lo seguirán siendo las matrices Hermitianas.
PROBLEMA: Una matriz ortogonal A se define como aquella matriz para la cual la transpuesta AT de dicha matriz es igual a la inversa A-1 de la matriz. Demostrar que la siguiente matriz es una matriz ortogonal:
Puesto que la transpuesta AT de la matriz A consiste simplemente en intercambiar los elementos con respecto a la diagonal principal, tenemos entonces lo siguiente:
Usando la identidad trigonométrica:
sen²(θ) + cos²(θ) = 1
y llevando a cabo la multiplicación matricial en el orden (A)(AT) tenemos entonces lo siguiente:
La transpuesta de la matriz AT de la matriz A produce la matriz identidad I, siendo por lo tanto igual a su inverso. Entonces la matriz proporcionada es una matriz ortogonal.
PROBLEMA: Una matriz ortonormal es aquella cuyos vectores columna son unitarios y ortogonales entre sí. (1) Demostrar que para toda matriz ortonormal T de configuración 2x2, la transpuesta de la matriz es igual a la inversa de la matriz. (2) Usando las propiedades de los determinantes bajo las cual el determinante del producto de dos matrices es igual al producto de los determinantes de cada matriz, y el intercambio de los renglones por las columnas de una matriz no altera el valor del determinante, demostrar que el determinante de toda matriz ortonormal es igual a ± 1.
Sea:
en donde T1, y T2 son los vectores columna de la matriz T. La transpuesta de la matriz es:
con lo cual podemos formar el siguiente producto matricial:
Llevando a cabo la multiplicación:
Puesto que la matriz es ortonormal, sus vectores columna deben ser unitarios y ortogonales entre sí, o sea Ti·Tj = δij. Por lo tanto:
Puesto que por la definición de la inversa de una matriz T-1T = I, entonces T-1 = TT, esto es, la transpuesta de toda matriz ortonormal debe ser también su propia inversa.
Usando la propiedad de los determinantes según la cual el determinante del producto de dos matrices es igual al producto de los determinantes de cada matriz, podemos escribir lo siguiente:
|TTT| = |TT|·|T|
Usando en el lado izquierdo el resultado que se acaba de demostrar, T-1 = TT, escribimos:
|T-1T| = |TT|·|T|
|I| = |TT|·|T|
|I| = |TT|·|T|
El determinante de la matriz identidad es igual a 1. Entonces:
|TT|·|T| = 1
Puesto que si intercambiamos los renglones y las columnas de una matriz el valor de su determinante no se altera, podemos escribir |T| en lugar de |TT| para así obtener:
|T|·|T| = 1
|T|2 = 1
|T| = ± 1
|T|2 = 1
|T| = ± 1
Los resultados que se acaban de obtener son fácilmente extendibles a matrices cuadradas de cualquier tamaño.
Más generalmente, y metiendo números imaginarios y complejos en el panorama, si la matriz ortogonal U es una matriz Hermitiana, de modo tal que que su trasconjugado es igual a su inversa, o sea:
U† = U-1
o lo que es lo mismo:
U† U = I
decimos entonces que se trata de una matriz unitaria, conocida también como matriz ortonormal.
Puesto que el producto de matrices y vectores no es comutativo, si se habla de una matriz M actuando como un operador sobre un operando x se debe escribir siempre primero el operador (a la izquierda) y después el operando (a la derecha) sobre el que actúa, en la forma Mx. Esto es válido en cualquier aplicación de operadores.
Puesto que los autovalores (propios) eigen de una matriz que representa a una cantidad física son los valores que dicha cantidad física puede tomar, una de las primeras prioridades en la Mecánica Cuántica Matricial consiste en la determinación de dichos valores para una matriz dada.
Se había mencionado ya previamente que, dada una matriz A cualesquiera, siempre podemos encontrar sus autovalores eigen r montando con algún vector x = (x1, x2, x3, ...) la ecuación (propia) de eigenvalores:
Ax = rx
y encontrando (resolviendo el conjunto de ecuaciones lineares simultáneas que nos resultan) las raíces r que hacen cierta esta ecuación matricial. Para resolver esta ecuación, podemos recurrir al siguiente truco en el cual usamos la propiedad de la matriz identidad I con la cual podemos premultiplicar o postmultiplicar cualquier matriz A que conste de tantas columnas como renglones por una matriz identidad I del mismo tamaño sin alterar nada, o sea x = xI = Ix:
rx = rIx = (rI) x
Entonces la ecuación matricial de arriba la podemos escribir del modo siguiente:
Ax = (rI) x
Ax - (rI) x = 0
Ax - (rI) x = 0
Factorizando al vector x hacia la derecha (lo cual se puede hacer puesto que en ambos términos está post-multiplicando al estar colocada a la derecha):
[A - rI]x = 0
Tomaremos ahora el determinante de ambos lados, lo cual nos produce la siguiente condición:
det(A - rI) = 0
Esta es la ecuación básica con la cual podemos obtener los autovalores eigen de cualquier matriz, y es conocida en la literatura como la ecuación característica de la matriz A. Del mismo modo, el polinomio que nos resulta de esta ecuación es conocido como el polinomio característico de la matriz A. Una vez que hemos encontrado los autovalores eigen de la matriz, podemos determinar los vectores eigen o eigenvectores asociados con cada autovalor, recurriendo para ello a la misma ecuación característica.
PROBLEMA: Dada la siguiente matriz:
(1) Obtener los autovalores propios (eigen) de la matriz. (2) Obtener los autovectores propios (eigen) asociados con cada uno de estos autovalores propios. (3) Obtener la matriz T cuyas columnas estén formadas con los autovectores propios (eigen) de la matriz. (4) Evaluando Rd = T-1RT demostrar explícitamente que esta relación de semejanza (similitud) producida con la matriz T formada con los autovectores normalizados de la matriz R nos resultará en una matriz diagonal. (5) Demostrar que los autovalores propios eigen de Rd son los mismos que los de la matriz R.
1) Utilizando un vector x = (x1, x2, x3), tenemos la ecuación característica Rx = rx, de lo cual obtenemos la ecuación matricial:
(R - rI) x = 0
Para un vector x que no sea el vector cero, esto significa que:
det(R - rI) = 0
o sea:
Expandiendo el determinante a lo largo del primer renglón obtenemos el polinomio característico para la matriz R:
(- r) (-r)(1 - r) - (1)(1 - r) + (0)(0) = 0
r2(1 - r) - (1-r) = 0
(r2 - 1)(1 - r) = 0
(r + 1)(r - 1)(1 - r) = 0
r2(1 - r) - (1-r) = 0
(r2 - 1)(1 - r) = 0
(r + 1)(r - 1)(1 - r) = 0
De la ecuación característica obtenemos tres raíces:
r1 = -1 , r2 = 1 , r3 = 1
(2) Para encontrar los vectores eigen o eigenvectores correspondientes, montamos la ecuación propia Rx = rx con r1 = -1, o sea:
Rx = -x
Rx + x = 0
Rx + x = 0
que con un vector columna general x = (a,b,c) nos produce el siguiente sistema de ecuaciones:
a + b = 0
a + b = 0
2c = 0
a + b = 0
2c = 0
Una combinación sencilla de valores que satisface este sistema es a = 1, b = -1 y c = 0, con lo cual obtenemos nuestro primer eigenvector:
x1 = (1, -1, 0)
La longitud de este vector no es igual a la unidad, y tenemos que normalizarlo. La normalización del vector nos produce nuestro primer vector eigen normalizado:
A continuación montamos la ecuación propia Rx = rx con r2 = 1, o sea:
Rx = x
Rx - x = 0
Rx - x = 0
que con un vector columna general x = (a,b,c) nos produce el siguiente sistema de ecuaciones:
- a + b = 0
a - b = 0
0·c = 0
a - b = 0
0·c = 0
Una combinación sencilla de valores que satisface este sistema es a = 1, b = 1 y c = 1, con lo cual obtenemos nuestro segundo eigenvector:
x2 = (1, 1, 1)
La normalización de este vector nos produce nuestro segundo vector eigen normalizado:
Puesto que con r3 = 1 tenemos una raíz repetida, tenemos que ser cuidadosos en escoger un vector x3 que sea linealmente independiente del vector x2 ya obtenido, esto es, que no sea un múltiplo del vector x2 y que tampoco pueda obtenerse mediante alguna combinación de los vectores x1 y x2. Una selección válida es la siguiente:
x3 = (1, 1, 0)
La normalización de este vector nos produce nuestro tercer vector eigen:
(3) Juntando a x1, x2, y x3 como vectores columna dentro de una matriz T, obtenemos entonces la siguiente matriz:
(4) La matriz inversa T-1 se puede obtener de la condición T-1T = I y resolviendo el sistema de ecuaciones. Llevando a cabo este procedimiento obtenemos lo siguiente:
A continuación efectuamos el triple producto matricial T-1RT, con lo cual obtenemos la matriz Rd que es equivalente a la matriz R, excepto que la matriz obtenida es una matriz diagonalizada con elementos a lo largo de la diagonal principal que corre desde la esquina superior izquierda hasta la esquina inferior derecha, y ceros en todos los demás casilleros:
(5) Podemos, si así lo deseamos, escribir el polinomio característico para esta matriz Rd, y resolverlo para obtener los valores propios de Rd:
Esto nos confirma que los valores característicos eigen de Rd son idénticos a los valores característicos de R. Pero esto mismo lo podemos leer directamente viendo los elementos de la matriz diagonalizada. La resolución de este problema nos ha mostrado no sólo que los valores propios eigen de una matriz permanecen iguales después de que dicha matriz ha sido diagonalizada mediante un procedimiento como el que acabamos de llevar a cabo, sino que con los eigenvectores de una matriz podemos obtener una matriz T que puede llevar a cabo la diagonalización de la matriz. Se puede demostrar formalmente que el procedimiento que se ha delineado en este problema es válido para matrices de cualquier tamaño.
Se había mencionado previamente que las matrices Hermitianas, matrices tales que el conjugado complejo de cada uno de sus elementos en el renglón i y en la columna j son iguales respectivamente a los elementos en el renglón j y la columa i (la transpuesta de la matriz), son matrices de interés extraordinario en la aplicación de las mismas a la Mecánica Cuántica.
¿Y por qué razón habrían de ser tan importantes para nosotros las matrices Hermitianas? Por una razón muy sencilla: los autovalores propios (eigen) de las matrices Hermitianas siempre son números reales, y por lo tanto una matriz Hermitiana es capaz de representar cantidades físicas reales (nada de términos imaginarios o complejos).
PROBLEMA: Demostrar que los valores propios de una matriz Hermitiana son reales.
Las ecuaciones características para una matriz Hermitiana M que posea dos autovalores propios λi y λj asociados a dos vectores propios xi y xj serán:
Mxi = λixi___Mxj = λjxj
Como la matriz M es Hermitiana, M = M†, y podemos poner en la segunda relación:
M†xj = λjxj
Tomando la trasconjugada (la transpuesta de los conjugados) en cada lado obtenemos:
xj†M = λj*xj†
siendo λj* el valor conjugado complejo del valor propio λj. Obsérvese que en éste último paso, al igual que como ocurre con la transpuesta del producto de dos matrices (AB)T que es igual al producto de las transpuestas de las matrices en el orden inverso, BTAT, o como ocurre con la inversa del producto de dos matrices (AB)-1 que es igual al producto de las inversas de las matrices pero en el orden B1A-1, en el lado izquierdo se invirtió el orden poniéndose (M†xj)† = xj†.(M†)† = xj†M.
Post-multiplicando (multiplicando a la derecha) la última relación por xi y pre-multiplicando la primera relación por xj† (a la izquierda), obtenemos:
xj†Mxi - xj†Mxi = 0 = (λj* - λi)xj†xi
Si j = i, entonces:
es la norma de xi que no puede ser cero, así que λi* = λi, lo que sólo puede significar que cada valor propio es real. Si j ≠ i, entonces λj* - λi = λj - λi. Además, para autovalores propios distintos, λj - λi ≠ 0, de donde xj†xi = 0 concluyéndose que los vectores propios son ortogonales.
PROBLEMA: Obtener los autovalores propios (eigen) de la siguiente matriz:
Inspeccionando esta matriz nos resulta obvio que se trata de una matriz Hermitiana. Y puesto que es una matriz Hermitiana, sabemos ya de antemano que sus valores propios serán números reales sin incluír términos imaginarios o complejos.
La ecuación característica que corresponde a esta matriz la podemos obtener montando el siguiente determinante:
Expandiendo el determinante a lo largo del primer renglón por el método de los cofactores (o cualquier otro método preferido por el lector):
(3 - r)2(1-r) - 0 + (-i)(-[i(1 - r)]) = 0
(3 - r)2(1 - r) - (1 - r) = 0
(1 - r)[(3 - r)2 - 1] = 0
(1 - r)[r2 - 6r + 8] = 0
(3 - r)2(1 - r) - (1 - r) = 0
(1 - r)[(3 - r)2 - 1] = 0
(1 - r)[r2 - 6r + 8] = 0
Una raíz es r = 1. Las otras dos raíces las obtenemos la ecuación cuadrática, y resultan ser 2 y 4. Entonces los valores propios (eigen) de la matriz son:
r1 = 1 , r2 = 2 , r3 = 4
PROBLEMA: Obtener los autovalores propios (eigen) de la siguiente matriz:
A primera vista resulta obvio que esta es una matriz Hermitiana. Y puesto que es una matriz Hermitiana, sabemos ya de antemano que sus valores propios serán números reales sin incluír términos imaginarios o complejos.
La ecuación característica que corresponde a esta matriz la podemos obtener montando el siguiente determinante:
Al igual que como se hizo con el problema anterior, llevaremos a cabo aquí la expansión del determinante a lo largo del primer renglón obteniendo lo siguiente:
(3 - r)(7 - r)(3 - r) - 0 + (2i)(-[(-2i)(7 - r)]) = 0
(3 - r)2(7 - r) - 4(7 - r) = 0
(7 - r)(r2 - 6r + 5) = 0
(7 - r)(r - 5)(r - 1) = 0
(3 - r)2(7 - r) - 4(7 - r) = 0
(7 - r)(r2 - 6r + 5) = 0
(7 - r)(r - 5)(r - 1) = 0
De acuerdo con las raíces que tenemos, los valores propios (eigen) de la matriz son:
r1 = 1 , r2 = 5 , r3 = 7
PROBLEMA: Suponiendo que la siguiente matriz representa una cantidad física:
determinar los valores propios de la matriz así como sus vectores propios.
Designando a la matriz como M, podemos obtener sus valores propios resolviendo la ecuación:
det(M - rI) = 0
Resolviendo la ecuación obtenemos las raíces que nos dán los valores propios, los cuales resultan ser:
r1 = + 1 , r2 = 0 , r3 = - 1
Con estos valores propios determinados podemos obtener los vectores propios x = (x1, x2, x3) con la condición:
x12 + x22 + x32 = 1
Repitiendo el procedimiento delineado en los problemas anteriores, los vectores propios resultan ser:
La matriz para la cual obtuvimos los valores propios y los vectores propios en este problema posiblemente resulta familiar. Es una de las matrices de Pauli que vimos arriba.
Conforme vayamos avanzando en nuestros estudios de Mecánica Cuántica, debemos irnos acostumbrando a ver a las matrices como operadores que actúan sobre vectores, operadores que a su vez representan los valores físicos que puede tomar una cantidad física.
PROBLEMA: Un operador matricial de proyección es aquél que proyecta un vector hacia un subespacio. Por ejemplo, el operador matricial:
proyecta el vector:
de un espacio tri-dimensional a un subespacio bi-dimensional para dar:
de modo tal que:
(1) Demostrar que un operador matricial de proyección P satisface la relación:
P2 - P = 0
(2) Demostrar que los valores propios del operador matricial de proyección son 0 y 1.
(1) Supóngase que el operador matricial P actúa sobre un vector x transformándolo en un vector x'. Entonces:
Px = x'
P2x = P(Px) = Px' = x'
P2x = P(Px) = Px' = x'
Entonces:
P2x - Px = x' - x'
[P2 - P]x = 0
[P2 - P]x = 0
y puesto que el vector x se supone que es diferente del vector cero, se concluye que
P2 - P = 0
(2) La ecuación característica del operador de proyección se obtiene a partir de:
Px = mx
Pero puesto que Px = x', debemos tener entonces:
x' = mx
La única manera en la que esto puede ser cierto para x' = x es con m = 1. Y para x' ≠ x la única manera en la que puede ser cierto es con m = 0. Entonces los valores propios eigen del operador de proyección son 0 y 1.
PROBLEMA: Demostrar que para toda matriz A de configuración 2x2 que posee valores característicos distintos λi, existe una transformación ortonormal T tal que:
Como vimos previamente, si la matriz T es una matriz ortonormal, entonces la podemos considerar formada por vectores columna ortogonales y unitarios. Sea:
T = [ T1_T2 ]
Entonces:
AT = [ AT1_AT2 ]
Por otro lado, λ1 y λ2 solo pueden ser valores característicos de la matriz A si:
AT1 = λ1T1___AT2 = λ2T2
Entonces podemos escribir lo siguiente:
AT = [ λ1T1__λ2T2 ]
Lo que tenemos a la derecha lo podemos descomponer en el siguiente producto matricial:
que es igual a:
Premultiplicando ambos miembros de esta igualdad matricial por T-1, tenemos entonces:
Removiendo los paréntesis del lado derecho:
Puesto que T-1T = I, entonces lo anterior se nos reduce a:
Este resultado puede ser extendido fácilmente a matrices cuadradas de cualquier tamaño.
PROBLEMA: Dada la siguiente matriz simétrica:
construír una matriz ortonormal T tal que T-1AT sea una matriz diagonal. Verificar también que T-1 = TT y que el determinante de T es igual a 1. Obtener asimismo la matriz diagonal T-1AT.
El polinomio característico para la matriz A lo obtenemos de lo que es conocido comunmente como la ecuación secular dada por:
lo cual requiere la evaluación de la siguiente igualdad con el determinante que aparece en el lado izquierdo:
Resolviendo, obtenemos los valores característicos de la matriz A:
Para obtener el primer eigenvector columna T1, podemos empezar con la condición AT1.=.λ1T1 que nos produce:
que se simplifica a:
La solución de este sistema puede ser cualquier combinación de valores x1 y x2 tales que:
x1 + x2 = 0
Estando en plena libertad de seleccionar la combinación que queramos. Una combinación sencilla es aquella en la cual x1.=.1 y x2.=.-1, con la que podemos escribir el primer eigenvector columna normalizado:
Para obtener el segundo eigenvector columna T2 usamos la condición AT2.=.λ2T2 que nos produce:
y que se simplifica a:
La solución de este sistema puede ser cualquier combinación de valores x1 y x2 tales que:
x1 - x2 = 0
Estando en plena libertad de seleccionar la combinación que queramos, una combinación sencilla es aquella en la cual x1.=.x2.=.1, con la que podemos escribir el segundo eigenvector columna normalizado:
Teniendo ya los dos eigenvectores columna, podemos construír la matriz ortonormal T en forma inmediata:
T = [ T1_T2 ]
No es necesario calcular la inversa de esta matriz, ya que para poder escribirla en forma expedita basta con obtener primero la transpuesta TT intercambiando el elemento en el primer renglón y en la segunda columna con el elemento en el segundo renglón y en la primera columna:
y tras esto efectuar la multiplicación matricial TT·T para verificar que se nos produce la matriz identidad I:
con lo cual se verifica que T-1 = TT.
El determinante de T es igual a:
lo cual nos confirma que lo que tenemos a la mano es precisamente una matriz ortonormal.
Si llevamos a cabo directamente el triple producto matricial T-1AT:
obtenemos sucesivamente lo siguiente:
que se simplifica finalmente a:
Esto es precisamente lo que de antemano esperábamos obtener, una matriz diagonal con los valores característicos λ1 = 3 y λ2 = -1 puestos en su diagonal principal:
No todas las matrices son diagonalizables. Un ejemplo de este tipo de matrices es el siguiente:
Sin embargo, y esto es algo de consecuencias tan importantes como interesantes, a partir de una matriz no diagonalizable como la anterior podemos obtener una matriz que sí es diagonalizable (y que por lo tanto puede poseer autovalores eigen propios) con el simple recurso de multiplicar la matriz por sí misma, obteniendo de este modo la matriz:
La ecuación característica para esta matriz nos resulta en el siguiente determinante:
para el cual ya hay valores propios definidos. Si llamamos a la matriz de este ejemplo A, pese a que la matriz A no es diagonalizable y por lo tanto no tiene autovalores eigen propios, es importante darse cuenta de que la matriz A·A sí es diagonalizable y sí puede tener valores propios. En pocas palabras, una matriz A que puede tomar valores continuos y que puede representar cualquier valor real nos puede producir una matriz cuyos valores propios son discretos y bien definidos con el simple recurso de producir la matriz A². Esta es la razón del por qué para casos como el del oscilador harmónico simple pese a que las matrices Q y P que representan a la posición y al momentum respectivamente toman valores continuos (no son diagonalizables) la energía del oscilador de cualquier forma puede tomar valores discretos, ya que si repasamos la ecuación matricial del oscilador harmónico simple:
podemos ver que en esta ecuación lo que figuran son los cuadrados de Q y P, lo cual conduce directamente a la cuantización de los valores que puede tomar H. Este interesante mecanismo matemático opera tanto para matrices finitas como para matrices infinitas tales como Q y P.