martes, 11 de agosto de 2009

Matrices y probabilidad

Existe una diferencia importante entre los valores que son medidos y las matrices que son utilizadas para escribir ecuaciones que relacionan las cantidades que pueden ser medidas. En la mecánica clásica, a una cantidad como la transferencia de calor o como el campo magnético se le representa con una variable continua como Q o como una variable vectorial como B cuyos componentes también pueden tomar valores continuos. En la Mecánica Cuántica, representamos las cantidades como matrices, y los valores propios (eigen) de dichas matrices son los valores que podemos esperar obtener al llevar a cabo una medición de las cantidades que representan a dichos valores.

A diferencia de lo que ocurre en el mundo macroscópico, en el mundo sub-microscópico hay un límite a la precisión con la cual podemos efectuar cualquier medición en el laboratorio, un límite impuesto por la misma Naturaleza que no puede ser superado con mejoras al equipo de laboratorio o con técnicas nuevas que puedan ser concebidas en algún futuro distante. Este límite lo determina la constante de Planck, h. Si la constante de Planck fuese igual a cero, todas las reglas que aplican a la física macroscópica con la que estamos familiarizados aplicarían también a la física sub-microscópica, y no habría incertidumbre alguna en nuestras mediciones en el laboratorio, cualquier incertidumbre en todo caso se debería a las imperfecciones de nuestro equipo. Pero la constante de Planck, aunque extremadamente pequeña, no es igual a cero. El que sea muy pequeña significa que sus efectos sólo se dejarán notar en fenómenos que ocurren a nivel sub-microscópico. Pero los efectos están allí, son ineludibles, y tenemos que convivir con ellos.

Al haber límites naturales a nuestra capacidad de medición y observación, se vuelve necesario recurrir a los elementos de la probabilidad y la estadística para poder obtener estimaciones, basadas en la probabilidad de que algo pueda suceder. Ello nos obliga a repasar las matrices propias de la Mecánica Cuántica para ver qué conceptos de probabilidad y estadística con los que estamos familiarizados nos es posible extender hacia el mundo sub-microscópico.

Empezaremos por definir el concepto de probabilidad. Cuando un evento puede ocurrir de n maneras diferentes entre un total de N maneras posibles, decimos que la probabilidad p de que ocurra ese evento es:

p = n/N

y siempre será una cantidad fraccionaria, inferior a la unidad.

PROBLEMA: En una bolsa tenemos 100 canicas. Si en la bolsa hay 20 canicas verdes, 40 canicas rojas, 30 canicas azules y 10 canicas cafés, bien revueltas. ¿Cuál es la probabilidad de sacar una canica de color verde, una de color rojo, una de color azul y una de color café al meter la mano en la bolsa?

Puesto que hay 20 canicas verdes, hay 20 formas posibles en las cuales podemos sacar una canica verde al azar entre un total de 100 posibilidades. Entonces la probabilidad de sacar una canica verde será:

pv = 20/100 = 0.2

Del mismo modo, la probabilidad de sacar una canica roja, una canica azul, y una canica café, son las siguientes:

pr = 40/100 = 0.4

pa = 30/100 = 0.3

pc = 10/100 = 0.1

Si sumamos todas las probabilidades obtendremos la unidad:

pv + pr + pa + pc = 0.2 + 0.4 + 0.3 + 0.1 = 1.o

lo cual significa que la probabilidad de sacar una canica de cualquier color es igual a la certeza. Esto último lo formalizamos con el siguiente enunciado:


PROBLEMA: Los valores que puede tomar cierta cantidad física son:

λ1 = 25___λ2 = 10___λ3 = 8___λ4 = 0___λ5 = -5___λ6 = -9

Asimismo, las probabilidades de obtener cada uno de los primeros cinco valores en una medición experimental son los siguientes:

p1 = 1/6___p2 = 1/10___p3 = 1/8___p4 = 1/4___p5 = 1/5

Obténgase la probabilidad de obtener el sexto valor.

Una cosa son los valores que pueda tomar cierta cantidad representada por una matriz, y otra cosa son las probabilidades de obtener cada uno de dichos valores, las cuales sumadas deben ser siempre igual a la unidad. Entonces:

p1 + p2 + p3 + p4 + p5 + p6 = 1

p6 = 1 - (p1 + p2 + p3 + p4 + p5)

p6 = 1 - 0.842

p6 = 0.158

Ahora procedermos a definir el promedio aritmético de una matriz que también podemos llamar la media aritmética de una matriz. Para definir este concepto, lo haremos recurriendo a los valores propios eigen de la matriz, los cuales deben formar un conjunto bien definido de valores λi. Si tenemos un conjunto de valores numéricos y podemos asignarle a cada uno de dichos valores la misma probabilidad de ocurrencia, entonces clásicamente podemos definir el promedio aritmético de dichos valores como la suma de dichos valores dividida entre la cantidad total de los mismos. Del mismo modo, para una matriz tendremos la siguiente definición equivalente:


PROBLEMA: Dada la siguiente matriz diagonalizada (con entradas únicamente a lo largo de su diagonal principal y ceros en todos los demás casilleros):


obténgase la media aritmética de dicha matriz suponiendo que las probabilidades para obtener cualquiera de sus valores están repartidas por igual.

Aplicando la definición dada, la media aritmética de la matriz A será:


La definición del promedio aritmético de una matriz se puede generalizar al caso en el cual la probabilidad de obtener cada uno de los valores λi no sea la misma. Siendo así, si a cada valor λi asociamos una probabilidad pi, entonces hablamos ya no de la media aritmética de una matriz sino de la esperanza matemática de una matriz definida de la siguiente manera:


En el caso especial en el que todas las probabilidades pi sean iguales, esta definición se reduce a la del promedio aritmético de una matriz. En el problema que acabamos de ver, la matriz diagonal posee cinco autovalores propios eigen, y si cada uno de ellos tiene la misma probabilidad de ser obtenido que los demás entonces a cada uno le corresponde una probabilidad de 1/5. Aplicando la definición de la esperanza matemática de una matriz obtenemos para la matriz A la siguiente esperanza matemática:


PROBLEMA: Demostrar que la esperanza matemática de una matriz a la cual se le ha sumado a cada uno de sus autovalores propios una constante es igual a la esperanza matemática de la matriz sumada a dicho valor constante.

Para la resolución de este problema, aplicamos la definición de esperanza matemática de una matriz al pie de la letra llevando a cabo las simplificaciones necesarias:


PROBLEMA: Suponiendo que las probabilidades para obtener cualquiera de sus valores están repartidas por igual, comprobar la relación que se acaba de obtener usando para la siguiente matriz diagonalizada:


una constante c = -2.

Restando a cada uno de los autovalores propios de la matriz la constante c = -2 y obteniendo la esperanza matemática de acuerdo a la definición llegamos al siguiente resultado:


Aplicando la relación obtenida, obtenemos simplemente la esperanza matemática de la matriz A y le restamos la constante c:


Como puede verse, en ambas maneras obtenemos el mismo resultado.

La esperanza matemática de la matriz identidad I será obviamente igual al número 1, ya que teniendo un total de N autovalores propios iguales al número 1, la suma de ellos será N, que dividida entre N será igual a la unidad.

PROBLEMA: Evaluar la siguiente expresión:


La expresión es la esperanza matemática de una suma de términos, que se igual a la suma de las esperanzas matemáticas de cada término. Entonces:


Inspirados en la definición de la esperanza matemática de una matriz, podemos convenir en un concepto similar utilizando para ello los cuadrados de los autovalores eigen de la matriz, definiendo con ello la media cuadrática de una matriz de la siguiente manera:


PROBLEMA: Obtener la media cuadrática de la siguiente matriz diagonalizada suponiendo que la probabilidad de obtener cualquiera de los valores representados por la matriz es la misma:


Puesto que tenemos seis autovalores y la probabilidad de obtener cualquiera de ellos en una medición es la misma, la probabilidad que le corresponde a cada uno de ellos es 1/6. Aplicando la definición de la media cuadrática de una matriz obtenemos entonces para esta matriz A lo siguiente:


PROBLEMA: Demostrar la siguiente relación (obsérvese que en el lado izquierdo de la igualdad es necesario multiplicar el segundo término, que es un valor y no una matriz, por la matriz identidad I, para que de ese modo se pueda llevar a cabo la substracción matricial y posteriormente la evaluación de lo que hay entre los paréntesis angulados):


En el lado izquierdo de la igualdad tenemos lo que es esencialmente la media cuadrática de una cantidad matricial, la cual podemos escribir explícitamente de acuerdo a la definición dada arriba:


Expandiendo el binomio cuadrático y aplicando la sumatoria a cada uno de los términos tenemos entonces que el lado derecho de la igualdad nos produce lo siguiente:


Concentremos por lo pronto nuestra atención en el segundo término, el cual puede ser simplificado de la siguiente manera:


Entonces lo que teníamos se puede reducir a lo siguiente:


Podemos reconocer el primer término como la media cuadrática de la matriz A, y la suma algebraica del segundo y el tercer término nos produce simplemente el negativo del cuadrado de la esperanza matemática de la matriz A, con la cual queda demostrado que:


Aplicaremos lo que acabamos de obtener a la siguiente matriz:


La esperanza matemática de esta matriz es la siguiente:


Por otro lado, la media cuadrática de la misma matriz es la siguiente:


Aplicando la fórmula obtenida arriba, tenemos lo siguiente:


Esta cantidad es interesante, pero hay otra cantidad más interesante que esta que podemos obtener de la anterior extrayendo la raíz cuadrada:


Esta cantidad tal vez la podrá reconocer cualquiera que haya tomado un curso básico de estadística. Se trata de la desviación estándard σ, la cual nos dá una medida de la dispersión de un conjunto de valores con respecto a la media aritmética de dichos valores, o más formalmente, con respecto a la esperanza matemática. En la estadística clásica, se le suele representar de la siguiente manera cuando la probabilidad de ocurrencia de cada uno de los valores es la misma:


y de la siguiente manera cuando la probabilidad de ocurrencia de cada uno de los valores es diferente:


Esto ya se parece mucho a lo que tenemos arriba aplicado al caso de los valores propios eigen de una matriz.

Para el conjunto de valores:

{1, 3, 4, 6}

el promedio aritmético es igual a 3.5, y la dispersión de valores es igual a σ = 1.8. Pero lo que hemos hecho aquí no se cubre en ningún curso introductorio de estadística, ya que hemos ampliado las definiciones clásicas de probabilidad y estadística para manejar no conjuntos de valores sino matrices, a través de sus valores propios eigen. Y haremos algo más. Ya que estamos hablando de matrices cuyos valores representan cantidades físicas que se pueden medir de alguna manera, a la cantidad:


la llamaremos aquí la incertidumbre, dando a entender con esto de que se trata de un concepto con el cual tenemos tenemos la vara para medir la incertidumbre que anticipamos al llevar a cabo la medición de una cantidad en el laboratorio habiendo varios valores posibles que podemos obtener en una medición sin saber de antemano exactamente cuál de ellos obtendremos. Esta definición nos servirá para poder llegar a un principio fundamental de la Mecánica Cuántica: el principio de incertidumbre.

En muchos textos en donde se dá una exposición del principio de incertidumbre tratado desde el punto de vista de la Mecánica Cuántica Matricial, en vez de escribirse la incertidumbre como lo hemos hecho arriba acostumbran escribirlo de la siguiente manera omitiendo el símbolo de matriz identidad I dándolo por “sobreentendido”:


Aunque esta representación simbólica es un poco más intuitiva y memorizable al equipararla con la raíz cuadrática de la esperanza matemática de la media cuadrática de las diferencias de los valores propios eigen λi de la matriz A con respecto a la esperanza matemática de la misma matriz A, el problema es que es notacionalmente incorrecta, ya que mientras que A es una matriz su esperanza matemática no puede serlo al ser un simple número, y no podemos simplemente restar un número de una matriz del mismo modo en que no podemos sumar peras con manzanas; es necesario multiplicar a la esperanza matemática de A por la matriz identidad I para así poder restar una matriz de otra y finalmente tomar la media cuadrática convirtiendo todo en un número. Desafortunadamente esta es una de las simplificaciones notacionales que supuestamente se dan por “sobreentendidas” aunque es rara la ocasión en la cual los libros en donde aparece se aclara este punto dejándoselo al maestro de la materia por explicar, lo cual no siempre ocurre siendo entonces el origen de muchas confusiones que se van arrastrando.

PROBLEMA: Al llevarse a cabo un experimento para evaluar cierta cantidad física, se obtienen los siguientes valores λi, los cuales se repiten el número de veces mostradas entre los paréntesis:

λ1(1) = 10 , λ2(4) = 9 , λ3(8) = 8 , λ4(7) = 7

λ5(6) = 6, λ6(15) = 5 , λ7(6) = 4 , λ8(3) = 2

Obténgase la expectativa matemática de la cantidad física y obténgase la incertidumbre que se puede esperar sobre la cantidad una cantidad medida llevar a cabo una medición.

La cantidad total de observaciones es:

N = 1 + 4 + 8 + 7 + 6 + 15 + 6 + 3

N = 50

La probabilidad de obtener cada uno de los valores es:

p1 = 1/50 , p2 = 4/50 , p3 = 8/50 , p4 = 7/50

p5 = 6/50 , p6 = 15/50 , p7 = 6/50 , p8 = 3/50

Siendo la expectativa matemática un simple número, la representaremos aquí en la forma convencional como se acostumbra hacerlo en estadística, como x. Esta será igual a:

x = 10(1/50) + 9(4/50) + 8(8/50) + 7(7/50) + 6(6/50)
+ 5(15/50) + 4(6/50) + 2(3/50)

x = 6

Para evaluar la incertidumbre, usaremos la expectativa matemática que acabamos de obtener y efectuaremos el siguiente cálculo:

Σ(λi - x)²pi =_________________________________
(10-6)²(1/50) + (9-6)²(4/50) + (8-6)²(8/50) + (7-6)²(7/50)
+ (6-6)²(6/50) + (5-6)²(15/50) + (4-6)²(6/50) + (2-6)²(3/50)

Σ(λi - x)²pi = 3.56

Extrayendo la raíz cuadrada obtenemos la incertidumbre en la medición:

Incertidumbre = 1.89