(5,2,8) - (5,0,0) - (0,2,0) = (0,0,8)
Esto es precisamente lo que vamos haciendo con el proceso de ortogonalización Gram-Schmidt conforme vamos avanzando, se va liberando cada uno de los vectores de sus proyecciones sobre los demás ejes que le anteceden en la base vectorial, hasta que al final nos queda un vector solitario. El primer vector con el que se empieza el procedimiento simplemente es normalizado. Al segundo vector se le resta su proyección sobre el primer vector haciéndolo ortogonal con respecto a dicho vector, y también es normalizado. Del mismo modo, al tercer vector se le restan sus proyecciones sobre el primer vector y sobre el segundo vector haciéndolo ortogonal con respecto a dichos vectores, tras lo cual es normalizado. En este caso, lo que se está llevando a cabo es lo siguiente:
Y al cuarto vector se le restan sus proyecciones sobre los primeros tres vectores (ortogonalizados) tras lo cual también es normalizado, repitiéndose el procedimiento cuantas veces sea necesario.
PROBLEMA: El siguiente conjunto de kets con cada ket expresado vectorialmente mediante el conjunto usual de vectores unitarios de base {i,j,k} es linealmente independiente (esto es, no se puede obtener ninguno de los kets del conjunto mediante simples operaciones aritméticas que involucren adición, resta y multiplicación combinando a los otros dos kets):
Sin embargo, el conjunto de kets no es ortogonal en el sentido de que el producto interno de cualquier par de kets sea igual a cero, como tampoco está normalizado ninguno de los ket. A partir de dicho conjunto de kets, constrúyase una base ortonormalizada de kets mediante el procedimiento Gram-Schmidt.
Usando la definición de la norma:
tenemos entonces para el primer ket:
||α1|| = √(1)(1) + (1 - i)(1 + i) + (-i)(i)
|α1|| = 2
Con esto podemos proceder a obtener el primer ket normalizado:
A continuación, evaluamos:
Multiplicando esto por el primer ket normalizado obtenemos la proyección del segundo ket sobre el primer vector:
que restada del segundo ket nos proporciona un ket ortogonal al primero:
El segundo ket, ya normalizado, será entonces:
Para ortogonalizar el tercer ket con respecto a los otros dos kets que ya son ortonormales, necesitamos los siguientes cálculos intermedios:
Con esto, podemos proceder a ortogonalizar el tercer ket restándole sus proyecciones sobre los otros dos kets que ya están ortonormalizados:
La evaluación de esta expresión produce el siguiente ket ortogonal a los otros dos:
Sólo falta normalizar este vector para poder completar nuestro conjunto de tres kets ortonormalizados:
No hay que olvidar jamás que los “vectores” del espacio de Hilbert no solo representan vectores en el sentido físico geométrico usual con su número de componentes extendido del espacio Euclideano de dimensión 3 hasta una cantidad infinitamente grande de componentes; también representan funciones. Tener en mente el origen geométrico del vector-función resulta extremadamente útil, desde luego, para extender resultados que nos son familiares hacia un terreno que ya no resulta tan familiar. Sin embargo, es necesario llevar a cabo la generalización (abstracción) que considera a los vectores del espacio de Hilbert ya sea como vectores multicomponentes o como funciones, y para esta generalización la notación bra-ket de Dirac representa nuestra mejor opción.
PROBLEMA: Ortonormalizar las primeras cuatro potencias de x en el intervalo -1.≤ x.≤ 1.
El conjunto (infinito) de las potencias de x es el siguiente:
{1 , x , x2, x3, x3, x4, x5 , x6 , ...}
Tomando los primeros cuatro elementos del conjunto, o sea las primeras cuatro potencias de x, hágase:
Tómese el primer ket para llevar a cabo su normalización. La evaluación de la norma de f1 nos dá la primera condición de normalización:
El primer vector-función, ya normalizado, será (una simple constante):
Ahora formaremos el segundo vector-función que será ortogonal al primero mediante el procedimiento:
Para llevar a cabo la normalización de este segundo vector-función, tomamos el producto interno en el intervalo -1.≤ x.≤ 1 con lo cual obtendremos el cuadrado de la “longitud” de este “vector”:
Entonces con esto el segundo vector-función, ya normalizado, viene siendo:
Ahora formaremos el tercer vector-función que será ortogonal al primer vector-función y al segundo vector-función mediante el siguiente procedimiento (la integral destacada de color rojo es igual a cero porque es la integral de una función impar):
Para llevar a cabo la normalización de este vector-función, tomamos el producto interno en el intervalo -1.≤ x.≤ 1 con lo cual obtendremos el cuadrado de la “longitud” de este “vector”:
Entonces con esto el tercer vector-función, ya normalizado, viene siendo:
Por último, para obtener el cuarto vector-función, que será ortogonal a los tres vectores-función que hemos obtenido, llevamos a cabo el siguiente procedimiento (nuevamente, las integrales destacadas en color rojo son iguales a cero al ser los integrandos funciones impares):
El cálculo de la constante de normalización para este cuarto vector-función es:
Con esto tenemos ya el cuarto vector-función normalizado:
Los cuatro vectores-función que fueron obtenidos arriba posiblemente resulten algo familiar. Y lo deben ser, ya que se trata ni más ni menos que de los polinomios de Legendre, los cuales resultan ser precisamente lo que se necesita para poder llevar a cabo el análisis del momento angular orbital del electrón en el átomo de hidrógeno, desde el punto de vista de la Mecánica Ondulatoria. Pero a diferencia de los polinomios de Legendre Pn(x) que usualmente se proporcionan en los textos de matemáticas, los polinomios de Legendre que hemos obtenido aquí son polinomios de Legendre normalizados. Se puede verificar mediante inducción matemática que la relación entre los polinomios de Legendre convencionales (no-normalizados) Pn(x) y los polinomios de Legendre normalizados que hemos obtenido aquí está dada por la siguiente relación:
Lo más relevante de lo que acabamos de ver aquí es que partiendo de un simple conjunto de las potencias de x se ha generado un conjunto ortogonalizado de polinomios de Legendre mediante el proceso de ortogonalización Gram-Schmidt. Como puede verse, este proceso de ortogonalización tiene aplicaciones prácticas importantes, y debemos concederle la importancia que merece si es que realmente queremos continuar avanzando.
Especificando intervalos de integración apropiados, podemos tomar otros conjuntos de funciones que sean generados mediante alguna relación “bien comportada”, como el siguiente conjunto:
y obtener mediante una aplicación metódica del proceso de ortogonalización Gram-Schmidt otro conjunto de funciones ortonormales. Puesto que la variedad posible de conjuntos ortonormales que podemos obtener de esta manera está limitada únicamente por nuestra imaginación, esto significa que hay, en principio, una cantidad infinitamente grande de conjuntos ortonormales de funciones.
En base a lo que hemos estudiado hasta este punto, podemos tomar las siguientes tres palabras como sinónimos:
eigenfunciones
eigenvectores
eigenkets
Se ha supuesto en las observables físicas que hemos estado considerando mediante la notación bra-ket de Dirac que estas exhiben un espectro discreto de eigenvalores bien definidos. Sin embargo, hay también observables con eigenvalores continuos. Tal es el caso del momentum de una partícula libre o su posición, pudiendo tomar cualquier valor posible entre -∞ y +∞. Si las matemáticas de un espacio vectorial infinito como el espacio de Hilbert para eigenkets que describen un espectro discreto de valores pueden presentar dificultades tarde o temprano, con mucho mayor razón cuando se trata de eigenkets que corresponden a un espectro continuo de valores. Afortunadamente, muchos de los resultados obtenidos para el caso de un espectro discreto de valores pueden ser generalizados a un espectro continuo de valores tomando las precauciones necesarias.
Para el caso de un espectro continuo, suponemos que la eigen-ecuación de Schrödinger sigue siendo válida:
en donde ξ es un simple número. En pocas palabras, el ket |ξ> es un eigenket del operador X con eigenvalor ξ.
Resulta obvio que hay dos clases de eigenvectores que deben ser tratados por separado dependiendo del hecho de que el espectro sea discreto (con eigenvalores distintos separados por brechas finitas) o continuo. Si el espectro es discreto, la práctica generalizada consiste en etiquetar a los eigenvectores con un entero como n:
suponiéndose que los eigenvectores son ortonormales, y si no lo son siempre se pueden escoger para que sí lo sean (con algún procedimiento como la ortogonalización Gram-Schmidt):
La función de onda Ψ con un espectro discreto se puede expandir en función de un conjunto infinitamente grande de vectores de base ortonormales:
pudiéndose entresacar individualmente cada uno de los componentes de la sumatoria mediante la operación:
Asimismo, la probabilidad de obtener un cierto eigenvalor λn será:
En comparación, si el espectro es continuo, la práctica generalizada consiste en etiquetar a los eigenvectores utilizando para ello una variable continua:
En esta situación, obviamente, las eigenfunciones no son normalizables, pero de cualquier manera es posible satisfacer una condición semejante a la ortonormalidad recurriendo para ello a la función delta de Dirac de modo tal que las eigenfunciones puedan ser consideradas ortonormales desde el pundo de vista de un espectro continuo:
En base a esto, la función de onda Ψ para un espectro continuo se puede expandir de la manera siguiente:
Estableciendo analogías con el caso discreto, podemos ver que los componentes ck se obtienen de la operación:
Continuando con las analogías, la probabilidad de obtener un eigenvalor en el rango dk en torno a λk es:
De este modo, recurriendo a las analogías que sean apropiadas con las cuales se puedan ir obteniendo de las expresiones que corresponden al caso discreto las expresiones equivalentes que corresponden al caso continuo, podemos ir construyendo una “tabla” de relaciones de semejanza como la siguiente:
PROBLEMA: Suponiendo que se está trabajando con un espectro discreto, dado el siguiente conjunto de vectores de base ortonormales:
y suponiendo que la expansión de la función de onda Ψ se puede expandir de la manera usual sobre esta base de kets:
demuéstrese que:
Empezaremos tomando el conjugado complejo del ket que representa la función de onda Ψ con la finalidad de obtener el bra que es el dual de dicho ket:
A continuación, tomaremos el producto interno bra-ket correspondiente a la función de onda Ψ:
Estando normalizada la función de onda Ψ:
y estando normalizados también los kets de base:
se llega entonces al resultado deseado:
PROBLEMA: Resuélvase el problema anterior suponiendo que se está trabajando con un espacio continuo en vez de discreto.
Cuando se tiene un espectro continuo, en vez de que los eigenestados estén representados mediante una sumatoria el espectro continuo se debe representar mediante una integral:
El dual de lo anterior que corresponderá al bra requerido para tomar el producto interno con el ket será:
El producto interno bra-ket es entonces:
Reemplazando el producto interno de los vectores continuos de base con la función delta de Dirac:
La función delta se encarga de anular todos los elementos excepto aquellos para los cuales k.=.l, convirtiendo la doble integral en una integral sencilla:
El lado izquierdo de la igualdad será igual a la unidad de acuerdo con la ortonormalidad de Ψ. Por lo tanto:
El espacio de Hilbert, siendo un espacio vectorial como cualquier otro, resulta beneficiario de muchos de los teoremas que se desarrollan en los cursos básicos de Algebra Lineal, y todo lo que se aprende en dicha materia relacionado con vectores y matrices tiene su extensión natural en la Mecánica Cuántica. Hay mucha literatura relacionada con el Álgebra Lineal cuyos resultados y conclusiones se pueden extender hacia la Mecánica Cuántica ahorrándonos con ello el trabajo de tener que reinventar la rueda de nuevo. Y de hecho, no fue sino hasta el advenimiento de la Mecánica Cuántica que muchos de los conceptos desarrollados en el Álgebra Lineal tales como la noción de los eigenvalores de una matriz o los operadores matriciales Hermitianos tuvieron una aplicación directa en el mundo práctico, saliendo del ámbito puramente teórico y abstracto.
Antes de continuar, se hace la advertencia de que existe otro tipo de notación inspirada en la notación bra-ket de Dirac la cual no parece encajar en el concepto sencillo de un producto interno bra-ket entre dos funciones de onda tomadas del mismo espacio vectorial, o el “entresacado” de un elemento matricial usando también dos funciones de onda tomadas del mismo espacio vectorial actuando a la izquierda y a la derecha de algún operador. Se trata de la siguiente notación de la cual se dará simplemente su significado bajo el contexto de la Mecánica Ondulatoria:
Lo primero que se debe destacar es que en esta simbología los bras hacen referencia a dos variables continuas que no pueden ser discretizadas, la posición y el momentum. Y aunque estas definiciones que se dan aquí también pueden ser manejadas dentro del álgebra de bra-kets, hay que tener mucho cuidado con la reinterpretación que se le debe dar a estos productos bra-ket, lo cual será postergado hasta cuando se trate en mayor detalle el tema de “El espacio-posición y el espacio-momentum”.