martes, 11 de agosto de 2009

Mecánica Estadística Cuántica II

Los problemas que hemos estado resolviendo han involucrado una cantidad muy limitada de partículas. Sin embargo, en la vida real, en cualquier situación tendremos sistemas con una cantidad mucho mayor de partículas. ¿Y cómo habremos de manejar tal situación? Esta es precisamente la pregunta que se formuló Ludwig Boltzmann, encontrando que gracias precisamente al efecto de los grandes números es posible a través de las reglas elementales de la combinatórica encontrar unas relaciones sencillas que describen el comportamiento estadísitico de un sistema de partículas. Antes de proseguir, es prudente que quede claro en nuestras mentes la diferencia que hay entre una función de distribución discreta y una función de distribución continua.

PROBLEMA: Hágase una gráfica de la siguiente función de distribución discreta:


en donde n sólo puede tomar los valores valores enteros positivos a partir del cero. Asimismo, superimpóngase sobre la gráfica anterior la siguiente función de distribución continua:


La gráfica de Fn en función de los enteros positivos n no producirá una curva suave y continua, sino que dicha gráfica estará caracterizada por una serie de “saltos” o cuantos, a diferencia de la gráfica de F(x) que sí producirá una curva suave y continua. A continuación se tienen las gráficas pedidas, superimpuestas la una sobre la otra, en donde se han graficado de color rojo a las barras cuyas alturas representan los valores de Fn, mientras que la curva producida por F(x) ha sido trazada de color azul:



Obsérvese que si hacemos una gráfica de Fn como la anterior para un rango de valores que incluya un n que sea sumamente grande (esto lo podemos hacer con una función como Fn.=.e-n/100 y graficando desde n.=.0 hasta n.=.200), el espaciamiento relativo que hay de un “cuanto” a sus vecinos inmediatos será tan pequeño y la gráfica de valores discretos será tan densa que será virtualmente imposible el poder detectar a simple vista que se trata de una función discreta, y ambas funciones se confunden.

A continuación se llevará a cabo la derivación de la distribución probabilista de Boltzmann.

Tomando como referencia las dos cualidades fundamentales con las cuales podemos describir clásicamente el estado físico de cualquier partícula, su posición referenciada a un sistema de coordenadas (rectangular Cartesianas) y el momentum de la partícula con sus tres componentes proyectadas sobre dicho sistema de coordenadas, empezaremos por describir un seis-espacio dimensional:


subdividiéndolo en r celdas de igual tamaño, poniendo n1 partículas en la celda 1, n2 partículas en la celda 2, n3 partículas en la celda 3, y así sucesivamente. A continuación, queremos calcular la probabilidad de encontrar algún arreglo en particular. Esta probabilidad será proporcional al número de maneras distintas en las cuales se pueda llevar a cabo la distribución de las partículas en las celdas.

Por razones de simplicidad, considérense el caso unidimensional en el cual tenemos a las r celdas acomodadas a lo largo de una línea. El número de maneras distintas en el cual podemos distribuír las partículas en la línea es N! (N factorial), porque habiendo N partículas (digamos, 50 partículas) hay N maneras distintas de escoger una de las partículas, y tras esto hay N-1 maneras distintas de escoger a la segunda partícula (entre las 49 que nos quedan), habiendo N-2 maneras distintas de escoger a la tercera partícula (entre las 48 que nos quedan), y así sucesivamente. Algunas de estas permutaciones resultan en la misma cantidad de partículas en una celda en particular. Si hay una cantidad de ni partículas en una celda, ni! de las N! permutaciones simplemente reacomodan las ni partículas en una celda. Considerando a las partículas iguales (como es el caso de los átomos y las moléculas), no queremos distinguir el orden en el cual son colocadas las partículas en una celda en particular, lo único que nos interesa es el número de partículas que hay en cada celda. Siendo así, el número Ω de maneras posibles distintas de lograr una distribución en particular será:


Encontrar la distribución más probable es esencialmente un problema como el que encontramos en la búsqueda de máximos y mínimos en el cálculo diferencial. En este caso, la distribución más probable se obtiene encontrando la distribución de los ni para la cual W sea un máximo. Podemos variar cada uno de los ni de forma tal que lo que hagamos sea consistente con la conservación del número de total de partículas (las cuales supondremos que no se crean ni se destruyen en conformidad con el principio de la conservación de la materia), o sea:


Además de esto, si suponemos que la energía de cada partícula puesta en cualquiera de las celdas con las cuales comparte la celda tiene el mismo valor (imaginemos a cada celda como una pequeña “cajita” de energía), siendo dicha energía Ei, la energía total de una celda en particular será niEi, con lo cual podemos variar cada uno de los ni de forma tal que lo que hagamos sea consistente con la conservación de la energía total de las partículas (en conformidad con el principio de la conservación de la energía), o sea:


Si no hubiera restricciones de ninguna especie, W sería un máximo (trivial) para ni = 1 para todos los i. Si tenemos únicamente la restricción de que el número total de partículas N sea constante, W será un máximo (también trivial) para ni = N/r, esto es, con las partículas repartidas por partes iguales entre las celdas. Esta es la distibución que nos resulta si lanzamos una moneda al aire un total de N veces y vamos contabilizando los resultados en dos listas marcadas “cara” o “cruz”; siendo la distribución más probable aquella con un número igual en cada lista (si la moneda cae apreciablemente más veces de un lado que del otro, podemos sospechar que la moneda está cargada). Sin embargo, cada celda en nuestro 6-espacio dimensional tiene una energía asociada con:

Energía = Energía Potencial + Energía Cinética


Queremos por lo tanto maximizar a Ω sujeta a las condiciones de la conservación del número total de partículas y la conservación de la energía. Aunque podemos tratar de maximizar a W directamente, desde el punto de vista matemático resulta más fácil maximizar la función logarítmica:


Usando la expresión para Ω que tenemos arriba y las propiedades del logaritmo, tenemos entonces lo siguiente:


Ahora bien, del cálculo diferencial sabemos que


Es costumbre arraigada cambiar ligeramente la notación sin que ello sea de mayores consecuencias en lo que al manejo matemático se refiere, usando la “δ” griega en lugar de la “d” latina para identificar a los diferenciales dy y dx, e inclusive llamándolos “variación” en lugar de diferencial, una costumbre que viene de la forma en la cual se le dá tratamiento a problemas de extremización de funciones en el cálculo de variaciones. Usando esta notación, escribimos entonces el siguiente enunciado equivalente:


Tomando derivadas observando que la derivada de ln(N!) será igual a cero por ser el número de partículas N una constante, en la función que queremos maximizar resulta obvio que un cambio pequeño δni producirá a su vez un cambio en δy dado por:


Obsérvese que en éste último paso hemos dado un salto de enorme importancia, ya que al tomar la derivada con respecto a ni estamos considerando a ni como una variable continua y no como un número entero positivo. Esto será válido en tanto que para una cantidad extremadamente grande de partículas iguales dicha cantidad sea mucho mayor que la unidad que representa a una sola partícula. Recurriremos ahora a la aproximación de Stirling tomando la derivada de la misma con respecto a ni:


que podemos simplificar aún más de la siguiente manera tomando en cuenta que en la Mecánica Estadística usualmente estamos considerando cantidades grandes de partículas ni (por ejemplo cantidades molares que son iguales al número de Avogadro de orden de magnitud 1023, que es el caso que verdaderamente nos interesa, lo cual le dá su carácter estadístico a la Mecánica Estadística):


Considérese ahora la función ln(N!). Hágase:


Tomaremos a continuación incrementos de la misma manera en la cual se acostumbra tomarlos cuando se empieza a definir en el cálculo infinitesimal lo que es una derivada:


Usando la definición del factorial:


Hay ΔN términos en P(N+ΔN)-P(N). Para un número N grande, cada término es aproximadamente igual a ln(N!). Entonces:


Por lo tanto, para un ΔN pequeño en comparación con un N muy grande:


Con esto, la expresión para la variación δy que teníamos arriba se simplifica a:


La condición de extremización, en este caso la condición para obtener un máximo, ocurre cuando la variación δy es fijada a cero:


Si todos los ni fueran independientes el uno del otro, podríamos simplemente igualar cada uno de los coeficientes de esta sumatoria a cero. Sin embargo, tenemos las dos restricciones que habían sido fijadas arriba en base a los principios de la conservación de partículas y de la energía:


Podemos meter estas dos restricciones recurriendo a lo que se conoce en las matemáticas como el método de multiplicadores de Lagrange. Para hacer tal cosa, en estas últimas dos relaciones tomamos la primera y la multiplicamos por una constante arbitraria que llamaremos α, y tomamos la segunda y también la multiplicamos por otra constante arbitraria que llamaremos β, sumándolas a la condición de extremización para obtener entonces:


Obsérvese que la suma de todos los términos de la sumatoria debe ser igual a cero. Llamando Xi a cualquiera de los términos de la sumatoria, el problema que tenemos ahora es que para la solución del sistema:

X1 + X2 + X3 + X4 + X5 + ... = 0

hay una cantidad infinita de maneras posibles de lograrlo, haciendo por ejemplo:

X1 + X2 + X3 = - (X4 + X5 + ...)

Sin embargo, esto presupone que hay alguna dependencia de algún tipo entre los términos de la sumatoria, siendo que de hecho todos los términos de la sumatoria son independientes el uno del otro. Para probarlo, recurriremos a un truco tomando primero dos de los términos de esta sumatoria y haciendo uso de un argumento que haremos extensible hacia los demás términos de la sumatoria. En principio, podemos variar todo independientemente excepto dos de los ni escogiendo precisamente (al azar) esos dos términos para satisfacer las condiciones de conservación de partículas y conservación de la energía. Escojamos los primeros dos términos de la sumatoria, δn1 y δn2 (arbitrariamente), como aquellos dos que no son independientes. Entonces:


Hecho esto, podemos escoger ahora las constantes α y β de modo tal que hagamos los coeficientes de δn1 y δn2 iguales a cero. Puesto que todos los demás nj son independientes, los coeficientes de δnj, en la sumatoria, deben ser también cero. Por lo tanto, se concluye que los términos de la sumatoria son independientes el uno del otro:


lo cual equivale a afirmar que:


de donde, resolviendo para cada término en su forma más general:


y así obtenemos para cada término de la sumatoria el siguiente resultado:


siendo A = e una constante de normalización, la cual es determinada a partir de la condición de que el número total de partículas en un sistema bajo estudio debe ser igual a una constante N. No hay que perder de vista el hecho de que la fórmula anterior representa no una sino varias relaciones, una para cada nivel de energía:


Considerando que cada nivel de energía es mayor en magnitud que el nivel de energía que le precede, obsérvese cómo la función de distribución ni en cada estado de energía sucesivo Ei va cayendo exponencialmente. En este punto es en donde Boltzmann para fijarle un valor a la constante β recurrió al trabajo previo desarrollado por Maxwell para la teoría cinética de los gases (esta es la razón por la cual la distribución de Boltzmann es conocida como la distribución de Maxwell-Boltzmann). Calculando la energía cinética promedio de las moléculas en un gas ideal, se puede demostrar que la constante β es igual a 1/kT, siendo k la constante de Boltzmann.

El resultado que hemos obtenido arriba en la última ecuación nos dice esencialmente que si la energía total de un sistema con un número N de partículas es E, entonces la función de distribución ni en la celda-i para la distribución más probable de energías en las celdas será proporcional a:


en donde Ei es la energía característica que corresponde a las partículas en la celda-i. Y puesto que la constante β es igual a 1/kT, tenemos entonces:


Esta relación, tan sencilla como parece, tiene una amplia variedad de aplicaciones, y constituye la piedra fundamental de la Termodinámica Estadística. Ya la utilizamos previamente en la entrada “La función de onda del momento angular de spin” para el análisis de la magnetización de una muestra de material considerando que el comportamiento macroscópico de la materia es una consecuencia del magnetismo exhibido individualmente por los átomos, en ese caso por el spin del electrón que posee un momento magnético.

En rigor de verdad, la relación de Boltzmann, en la forma en la cual está escrita arriba, puede resultar algo confusa si no se ha tenido la cautela de ver cómo se llegó a lo que puede ser manejado como una distribución continua de probabilidades a partir reglas de combinatórica utilizadas para el manejo de cantidades discretas (enteros positivos). Puesto que tanto e como:


siempre serán cantidades fraccionarias inferiores a la unidad, el producto de ambas también será inferior a la unidad, y no se ve manera alguna en la cual ni pueda representar cierto número de objetos o partículas como parece sugerirlo la forma en la cual está escrita arriba la fórmula de Boltzmann. Pero se recuerda que ni es una función de distribución de probabilidades, y en una gráfica ni es lo que simplemente nos dá el valor de la ordenada para cada punto. Pero la cantidad en sí de algo que esté siendo valorado bajo esta función de distribución de probabilidades se debe obtener dentro de cierto rango de valores mediante el área bajo la curva de la función de distribución de probabilidades. En el caso de una distribución normal (Gaussiana) obtenida mediante un conteo de una población numerosa subdividida en rangos iguales como la siguiente:



es el área resaltada de color verde la que nos dará la probabilidad de que un miembro de la población tomado al azar tenga un valor entre 60 y 62 siempre y cuando la curva esté normalizada (lo cual requiere que el área total bajo la curva sea igual a la unidad). Para una cantidad considerable de partículas, el paso del mundo discreto hacia el mundo continuo requiere que se lleve a cabo la siguiente transformación simbólica:

ni n(E) FMB

en donde con el salto dado de ni hacia n(E) se está resaltando el hecho de que se está considerando a n como una función continua que dependerá del valor de la energía E, resaltándose el hecho de que se trata de una función de distribución (la función de distribución Maxwell-Boltzmann) representando a ni en su forma alterna como FMB, esto además de que se requiere hacer también:


De este modo, para el caso continuo cuando se está considerando una cantidad grande de partículas:


en donde se ha hecho B = 1/A. Esta forma de la distribución Maxwell-Boltzmann será util para fines comparativos con otras funciones de distribución que serán tratadas posteriormente.

Hay que tener suma precaución para poder distinguir bien entre aquellos casos en los cuales se recurrirá a la relación de Boltzmann en su forma discreta (cuando se está llevando a cabo una análisis exploratorio manejando una cantidad muy reducida de partículas, digamos unas tres, cuatro o cinco partículas) y aquellos casos en los cuales se recurrirá a la relación de Boltzmann en su forma continua. Esto será aclarado con los problemas y ejercicios que serán presentados a continuación.

Con la relación de Boltzmann podemos comparar fácilmente las poblaciones relativas de partículas que debe de haber entre dos estados energéticos distintos E1 y E2:



Puesto que ni es la cantidad relativa de partículas que hay en una celda-i, siendo N el número total de partículas, entonces la fracción Fi de partículas que corresponde a dicha celda, la cual podemos tomar como la probabilidad de que una partícula tenga una energía Ei, será igual a ni/N. Esto significa que la razón de las partículas que hay en un estado energético a las partículas que hay en otro estado energético es también igual a la razón de las probabilidades de encontrarse en cada uno de esos dos estados energéticos, o sea:


Por la forma en la que fue obtenida, en la distribución Maxwell-Boltzmann la cantidad Ae-E/kT es en realidad el número de partículas por estado energético en un intervalo infinitesimal de energía dE. Para el caso sencillo en el cual tenemos unas cuantas partículas, el intervalo infinitesimal dE puede ser tomado como un intervalo finito ΔE, de forma tal que cada intervalo de energía nos define verdaderamente una “caja de energía”. Clásicamente, más que hablar de que una partícula cualquiera pueda tener una de varias energías posibles bien definidas:


de lo que se está hablando es que la partícula se encuentre dentro de cierto intervalo de energía ΔE pueda tener cualquier valor entre los bordes de energía que definen a dicho intervalo (por ejemplo, una energía igual a 3.78 unidades de energía en un intervalo definido entre un borde inferior igual a 3.25 unidades de energía y un borde superior igual a 4.50 unidades de energía):



Sólo en el muy peculiar caso mecánico-cuántico es cuando la partícula, sub-microscópica, está confinada a tomar uno de varios valores fijos de energía llamados “cuantos” en lugar de cualquier valor posible dentro de un intervalo (bueno, en virtud del principio de incertidumbre, esta aseveración no es totalmente válida, pero la idea esencial sigue allí). De cualquier modo, para un número grande de partículas (por ejemplo, de un orden de magnitud igual a 1023), la diferencia entre una distribución discreta de probabilidades y una distribución continua desaparece, y esto es tras lo que iba Boltzmann en lugar de una “discretización” de la energía.

PROBLEMA: ¿De cuántas maneras diferentes se pueden repartir tres niveles de energía entre tres partículas a, b y c, sujeto a la restricción de que la suma total de la energía de las tres partículas sea igual a tres unidades de energía?

El acomodo de las tres partículas en los tres niveles de energía se puede llevar a cabo de las siguientes maneras posibles:


En el primer recuadro superior, tenemos las partículas distinguibles (identificadas de color rojo, verde y ciano) repartidas de modo tal que todas las partículas poseen distintos niveles de energía, no habiendo dos partículas con el mismo nivel de energía, y para este caso el número de combinaciones posibles según la fórmula es:

Ω1 = 3! /(1! · 1! · 1!) = 6

En el recuadro intermedio, tenemos las partículas repartidas de modo tal que dos de ellas ocupan el mismo nivel de energía, y el número de combinaciones posibles según la fórmula es:

Ω2 = 3! /(2! · 0! · 1!) = 3

Y en el tercer recuadro, tenemos las partículas repartidas de modo tal que todas ellas ocupan el mismo nivel de energía, y como puede verse, sólo existe una posibilidad confirmada por la fórmula combinatórica:

Ω3 = 3! /(0! · 3! · 0!) = 1

En todas las combinaciones mostradas, la suma de los niveles energéticos de las tres partículas es igual a tres unidades de energía, como lo especifica el enunciado del problema.

De este modo:

Ω = Σ Ω i = Ω1 + Ω2 + Ω3 = 6 + 3 + 1

Ω = 10

Tenemos pues un total de diez microestados porque hay diez maneras distintas de repartir las partículas entre los tres niveles energéticos posibles. Si en las diez figuras contamos primero todas las partículas que están en el nivel cero (12 en total), y tras esto contamos todas las partículas que están en el nivel uno (9 en total), y tras esto contamos todas las partículas que están en el nivel 2 (6 en total) y tras esto contamos todas las partículas que están en el nivel 3 (3 en total), podemos definir el número de ocupación promedio ni para cada nivel, obtenido de dividir el número de partículas en cierto nivel entre la cantidad total de microestados (que es 10 en este caso). Para este problema tenemos cuatro números de ocupación promedio:

n0 = 12/10 = 1.2

n1 = 9/10 = 0.9

n2 = 6/10 = 0.6

n3 = 3/10 = 0.3

Si sumamos los números de ocupación promedio, obtenemos el número total de partículas del sistema:


N = 1.2 + 0.9 + 0.6 + 0.3

N = 3

Si nos fijamos bien en esta distribución sencilla haciendo un diagrama de los valores, descubriremos algo importante: la distribución de números de ocupación va cayendo exponencialmente. La probabilidad de encontrar partículas con cierto nivel de energía se va desplomando rápidamente conforme aumenta el nivel de la energía, y como se ha demostrado arriba con argumentos puramente combinatóricos (matemáticos), para sistemas con un gran número de partículas esta probabilidad va disminuyendo exponencialmente siguiendo una caída del tipo e-n. Esta es precisamente la distribución de Boltzmann, porque Boltzmann fue el primero en descubrir este hecho. Para casos sencillos como este, la distribución de Boltzmann para los números de ocupación que estamos considerando está dada por la fórmula:


que viene de:


En el problema que estamos manejando con tres partículas repartidas en tres niveles de energía, la evaluación del denominador, que simbolizaremos como Q, usando números nos dá:


Q = 1.00000 + 0.36788 + 0.13534 + 0.04979

Q = 1.553

con lo cual:

n0 = (e0/Q) N = (1/1.553) 3 = 1.932

n1 = (e-1/Q) N = (0.36788/1.553) 3 = 0.711

n2 = (e-2/Q) N = (0.13534/1.553) 3 = 0.261

n3 = (e-3/Q) N = (0.04979/1.553) 3 = 0.96

En prácticamente todas las sumatorias manejadas previamente en otras entradas, se ha usado indistintamente para el número inicial de la sumatoria ya sea cero (i = 0) o uno (i = 1), por ejemplo en la representación de los sub-índices de las coordenadas, porque el uso es meramente simbólico. Sin embargo, y en este caso muy especial y muy peculiar tratándose de la distribución de Boltzmann, la sumatoria tiene que partir forzosamente con un número inicial de cero, ya que su uso no es meramente simbólico sino que interviene en la exactitud de los resultados numéricos obtenidos.

Podemos comparar los resultados (estadísticamente aproximados) obtenidos para los números de ocupación promedio a través de la distribución de Boltzmann con los resultados exactos obtenidos arriba en la siguiente tabla:


La comparación nos puede dejar con la impresión de que la aproximación dada por la distribución de Boltzmann no es muy buena. Pero conforme aumenta el número de átomos (y con ello la cantidad de microestados posibles) la distribución de Boltzmann se va asentando firmemente por la acción estadística de la ley de los grandes números (la misma que nos dice que tras arrojar una moneda al aire varias miles de veces, la mitad de las veces en promedio la moneda habrá caído cara y la otra mitad habrá caído cruz, a menos de que la moneda esté cargada). A la cantidad Q que tenemos arriba se le ha dado en llamar función de partición, un nombre intimidante que desafortunadamente esconde la sencillez de la idea detrás de dicha cantidad.

PROBLEMA: De acuerdo con la distribución de Boltzmann, ¿cuáles son los números de ocupación ni para un sistema con cinco partículas y cinco niveles posibles de energía?

Calculamos primero el denominador para la distribución de Boltzmann, o sea la función de partición Q:


Q = e0 + e-1 + e-2 + e-3 + e-4 + e-5

Q = 1.00000 + 0.36788 + 0.13534 + 0.04979 + 0.018316 + 0.00674

Q = 1.578

Los números de ocupación para este sistema, según la distribución de Boltzmann, son:

n0 = (e0/Q) N = (1/1.578) 5 = 1.932

n1 = (e-1/Q) N = (0.36788/1.578) 5 = 0.711

n2 = (e-2/Q) N = (0.13534/1.578) 5 = 0.261

n3 = (e-3/Q) N = (0.04979/1.578) 5 = 0.96

n4 = (e-4/Q) N = (0.018316/1.578) 5 = 0.96

n5 = (e-5/Q) N = (0.00674/1.578) 5 = 0.96

La caída exponencial en los números de ocupación promedio es la razón por la cual al ir escalando una montaña el aire se va enrareciendo rápidamente hasta llegar a la atmósfera superior en donde casi no hay moléculas de aire, es una consecuencia de la distribución de Boltzmann cuando aplicamos en ella la ley clásica del gas ideal.

PROBLEMA: Encuéntrese la energía promedio para la distribución más probable de dos estados cuyas energías sean ε y 2ε.

Recurriendo a la relación de Boltzmann, tenemos la siguiente población para cada estado energético:


La fracción F1 de la población que corresponde al primer estado energético que a su vez será igual a la probabilidad p1 de encontrar una partícula del sistema en el primer estado energético será:


Del mismo modo, la fracción F2 de la población que corresponde al segundo estado energético que a su vez será igual a la probabilidad p2 de encontrar una partícula del sistema en el segundo estado energético será:


Por lo tanto, la energía promedio del sistema será:


Sabiendo cómo obtener a través de la Mecánica Estadística la energía total de un sistema, estamos en condiciones de poder calcular algunas propiedades termodinámicas de la materia, siendo una de ellas la capacidad calorífica molar a volumen constante, simbolizada como Cv y definida de la siguiente manera:


Esto es en realidad una definición un poco más sofisticada del concepto general de la capacidad calorífica como la cantidad de calor ΔQ requerida para producir un aumento ΔT en la temperatura de una cantidad m de materia cuando el incremento en la temperatura es lo suficientemente pequeño como para que la definición dada a Cv pueda ser considerada aproximadamente lineal (constante):


Si en esta definición la cantidad de masa m de la que estamos hablando está expresada en moles de materia (mol-gramo, mol-libra, etc., el peso atómico o el peso molecular de la substancia expresado en gramos, libras, etc.), entonces escribimos la definición de la capacidad calorífica molar a volumen constante de la siguiente manera:


En situaciones y problemas en los cuales se está manejando precisamente un mol de materia y en donde no hay confusión alguna al respecto, se puede hacer simplemente lo siguiente:


eliminándose el símbolo de la fórmula dada arriba. Y considerando que una cantidad de calor ΔQ transferida a una cantidad determinada de materia para subirle la temperatura en una cantidad ΔT viene siendo en realidad igual al aumento inducido en la energía interna de la substancia, tenemos entonces la definición un poco más sofisticada dada al principio. ¿Y por qué se define a volumen constante? Pues por el hecho de que si la substancia de la que estamos hablando es un gas, entonces al calentar el gas subiéndole la temperatura la presión del gas dentro del recipiente aumentará, y si una de las paredes es móvil (por ejemplo, un émbolo), entonces el gas empujará a dicha pared llevando a cabo un trabajo físico, lo cual nos viene a complicar un poco las cosas. El mantener la substancia bajo estudio a un volumen constante nos garantiza que toda la energía que le sea suministrada para producirle un aumento en su temperatura irá a dar a un aumento de la energía interna del gas en lugar de terminar produciendo un trabajo como ocurre en una máquina de vapor.

PROBLEMA: (1) Considérese un sistema cuántico de dos estados, cuyos niveles son E1.=.0 y E2.=.ε. Suponiendo que la probabilidad de encontrar una partícula en el estado de energía E sea proporcional al factor de Boltzmann e-E/kT, encuéntrese la energía total de un sistema de N partículas. (2) Encuéntrese el calor específico a volumen constante para este mismo sistema.

(1) El factor de proporcionalidad para cada estado de energía Ei en la distribución Boltzmann es:


Metiendo en el panorama la constante de proporcionalidad, que en realidad viene siendo la constante de normalización, la proporcionalidad se convierte en igualdad:


La constante de normalización es prefijada por el hecho de que la suma de todos los Fi debe ser igual a la unidad, que en este caso para un sistema de dos estados se obtiene haciendo:


Tomando en cuenta las características dadas para el sistema, se tiene entonces:


Por otro lado, la energía media de una partícula de este sistema será:


La energía total ET.del sistema de N partículas será por lo tanto:


(2) Una vez obtenida la energía total del sistema, la obtención de la capacidad calorífica a volumen constante se lleva a cabo de manera directa recurriendo a la definición de Cv:


La derivación que se ha llevado a cabo arriba para la distribución de Maxwell-Boltzmann no considera la posibilidad de que haya estados degenerados como los que se encuentran en el átomo de hidrógeno ocasionados por los distintos valores que para un mismo estado energético pueda tomar el momento angular orbital o por los dos valores que puede tomar el momento angular intrínseco del electrón a causa de su spin. De este modo, una situación en la cual teníamos todos los niveles de energía distribuídos equitativamente: 




se torna en algo un poco más elaborado en lo cual cada estado de energía puede tener un peso específico gi dentro de la distribución, como el siguiente caso:




en el cual el estado de energía E1 tiene un peso g1 igual a tres unidades, el estado de energía E2 tiene un peso g2 igual a dos unidades, el estado de energía E3 tiene un peso g3 igual a cuatro unidades, el estado de energía E4 tiene un peso g2 igual a una unidad, y el estado de energía E5 tiene un peso g5 igual a dos unidades.

La distribución de Boltzmann para el caso en el cual tenemos estados de energía degenerados se obtiene de la misma manera en la cual se obtuvo para el caso en el cual no hay estados de energía, y la consecuencia final es que a en la relación que habíamos obtenido anteriormente aparece un factor de peso estadístico gi:


Esto significa que la relación que habíamos obtenido arriba para comparar las poblaciones de partículas en dos estados energéticos distintos queda modificada de la siguiente manera:


o bien, hablando en términos de probabilidades poblacionales:


PROBLEMA: (1) Encuéntrese la relación entre dos sistemas a y b con dos energías diferentes en el ensamble dado que:


(2) Repítase el cálculo suponiendo que la razón entre los factores de peso de los dos sistemas es g2/g1 = 3.

(1) Para el primer caso en el cual se supone que los factores de peso son iguales:


(2) Suponiendo que la razón entre los factores de peso es g2/g1 = 3:


PROBLEMA: Obténgase la razón del número de átomos que hay en el primer estado excitado del átomo de hidrógeno al número de átomos que hay en su estado fundamental, a la temperatura ambiente tomada como T.=.300.°K.

Del modelo atómico planetario de Bohr, el cual sigue siendo útil para ciertos propósitos limitados, se obtiene para la energía del estado fundamental del átomo de hidrógeno un valor E1 = -13.6 eV, mientras que para el primer estado excitado se obtiene un valor E2 = -3.40 eV. Esto significa que el primer estado excitado del átomo de hidrógeno está 10.2 eV arriba del estado fundamental, o sea:

ΔE = 10.2 eV

Tenemos que determinar ahora los factores de peso que corresponden tanto al estado fundamental como al primer estado excitado. Para el estado fundamental 1s, hay dos espacios disponibles para el “acomodo” del electrón, uno para un electrón con su spin apuntando “hacia arriba”, y otro para un segundo electrón con su spin apuntando “hacia abajo”, sin más espacio disponible en virtud del principio de exclusión de Pauli. Entonces el factor de peso para el estado fundamental del átomo de hidrógeno es g1.=.2. En lo que al primer estado excitado se refiere, tenemos cuatro cajas disponibles (2s, 2px, 2py, 2pz), y en cada una de ellas podemos acomodar dos electrones apareados. Entonces el factor de peso para el estado excitado del átomo de hidrógeno es g2.=.8. Puesto que tenemos las energías dadas en términos de electrón-volts, resulta conveniente para fines de cálculo recurrir a la siguiente constante física que es válida justo a la temperatura ambiente de T.=.300.°K:

kT = 0.0258 eV__para T = 300 °K

Entonces, substituyendo números:

F2/F1 = (g2/g1)e-(ΔE/kT) = (8/2)e-(10.2/0.0258)

F2/F1 = 4e-393

F2/F1 ≈ 4e-171

Como puede verse, en virtud de la gran diferencia de energía que hay entre el estado fundamental y el átomo de hidrógeno en comparación con kT, habrá muy pocos átomos en el primer estado excitado a la temperatura ambiental. 

PROBLEMA: Experimentalmente se ha determinado que el primer estado excitado en la energía rotacional para la molécula de hidrógeno H2 está unos 4×10-3 eV arriba de la energía que le corresponde al estado fundamental. Determínese la razón entre los números de moléculas que hay entre los dos estados poblacionales a la temperatura ambiente de T.=.300.°K.

En este caso, los niveles energéticos cuánticos no son los que correspondan a un electrón que forme parte de un átomo de hidrógeno, sino los niveles cinéticos de una molécula completa, en este caso los niveles de energía rotacional. Con respecto al estado fundamental que tomaremos como el de una molécula de hidrógeno que no exhibe movimiento de rotación alguno en torno a su centro de masa y al cual le daremos un factor de peso g1.=.1, para el primer estado excitado habrá un peso g2.=.3 correspondiendo a los tres movimientos posibles de rotación de la molécula (conocidos como los grados de libertad), una rotación en torno al eje-x, una rotación en torno al eje-z, y una rotación en torno al eje-z.

Procediendo como lo hicimos en el problema anterior:

n2/n1 = (g2/g1)e-(ΔE/kT) = (3/1)e-(-0.0004/0.0258)

n2/n1 = 2.569

A continuación se llevará a cabo la derivación de la distribución probabilista de Boltzmann para el caso que hemos estado manejando arriba en el cual tenemos estados degenerados, dándole justificación a lo que se ha estado haciendo. Como se ha visto arriba, la única diferencia entre la distribución probabilista de Boltzmann sin estados degenerados y la distribución probabilista con estados degenerados es que la segunda incorpora factores de peso, con un factor de peso para cada nivel. Podemos ver a la distribución probabilista sin estados degenerados como un caso especial de la distribución probabilista para estados degenerados en la cual todos los factores de peso son iguales a la unidad. No deberá causar asombro el hecho de que los pasos utilizados para la derivación de la distribución probabilista de Boltzmann con estados degenerados son casi idénticos a los que estaremos utilizando en la derivación de la distribución probabilista más general.

Supóngase que cada partícula dada tiene una probabilidad intrínseca gi de ocupar la i-ésima celda, dándose por hecho que:


De este modo, por ejemplo, si las celdas representan intervalos de energía y si existe un número doble de estados en el intervalo de energía ΔEa que en el intervalo ΔEb, entonces habrá una probabilidad doble de que la partícula tenga una energía en el intervalo ΔEa que en el intervalo ΔEb.

Supóngase ahora que las celdas se van a llenar del siguiente modo: las partículas A1, B1, C1, etc. van a la primera celda, las partículas A2, B2, C2, etc. van a la segunda celda, y así sucesivamente. Entonces la probabilidad de que A1 vaya a la primera celda es g1. Y la probabilidad de que A1, B1, C1, etc. vayan a la primera celda será entonces:


Asimismo, la probabilidad de un cubrimiento total en todas las celdas disponibles será:


Cada manera de realizar la distribución tendrá esta probabilidad, habiendo:


maneras distintas de hacerlo. Por lo tanto, la probabilidad P de que se dé una distribución en particular vendrá siendo:


En realidad, con tal de que los estados sean fijos, el número r de celdas no importa. De este modo, trataremos de obtener el máximo de:


sujeto a las dos restricciones de rigor, esto es, que el número total de partículas sea un número fijo, constante, y que la energía total del sistema obtenida con las contribuciones energéticas de cada una de las partículas permanezca constante:



Aunque podemos irnos directamente a la maximización de la probabilidad P, resulta mucho más fácil desde el punto de vista matemático maximizar la función logarítmica de P. Estando de acuerdo en esto, y recurriendo a las propiedades de los logaritmos, podemos tomar la relación para P desarrollándola de la siguiente manera:


Tal y como lo hicimos con anterioridad, podemos simplificar esto último recurriendo a la fórmula de Stirling extendiéndola mediante una sumatoria al caso de varios números factoriales:


Obsérvese que se ha destacado el número total de partículas N de color rojo, señalándolo como una cantidad que puede ser borrada de antemano de nuestro desarrollo en virtud de que al llevar a cabo el proceso de diferenciación infinitesimal N se eliminará precisamente por ser una constante.

Usando la simplificación que nos dá la fórmula de Stirling, tenemos entonces:


Ahora daremos un salto del mundo discreto al mundo continuo, considerando a los ni como variables continuas., lo cual es válido considerando la enorme cantidad de partículas (del orden de magnitud del número de Avogadro) que estaremos manejando. Lo que tenemos en la última relación en el lado derecho de la igualdad es lo que estamos tratando de maximizar, sujeto a las dos restricciones de la conservación del número total de partículas N y de la energía total del sistema E. La maximización sujeta a estas dos restricciones se puede llevar a cabo, tal y como lo hicimos arriba, con el método de multiplicadores de Lagrange, el cual nos indica multiplicar a la primera restricción por una cantidad λ1 y a la segunda restricción por una cantidad λ2, sumándolo a lo de arriba para así obtener una función F a ser maximizada bajo las dos restricciones:


que viene siendo:


Tomando la derivada de F con respecto a cada ni, tenemos lo siguiente (tal vez el lector se pueda sentir un poco más cómodo con este paso tomando primero la derivada de F con respecto a n1 obteniendo así un primer resultado, y después tomando la derivada de F con respecto a n2 obteniendo así un segundo resultado, hasta entender plenamente lo que se está llevando a cabo aquí de un modo más general):


De esto último obtenemos directamente lo siguiente:


Esto lo podemos escribir de una manera un poco más compacta:


tras haber hecho:


Lo que hemos obtenido aquí es esencialmente lo que hemos estado utilizando arriba para la resolución de problemas. Como puede verse, la única diferencia entre la distribución de Boltzmann para estados degenerados y la distribución de Boltzmann para los estados no-degenerados es la aparición de los factores de peso en el primer caso.

Si bien es cierto que podríamos haber empezado axiomáticamente con la derivación de la distribución de Boltzmann para estados degenerados con la finalidad de aplicarla posteriormente para la resolución de algunos ejemplos y problemas, se ha optado aquí por empezar mejor con algunos ejemplos y problemas resueltos con la finalidad de que el lector pueda tener una mejor idea en su mente de aquello que hemos formalido al final con una derivación rigurosa, yendo de lo particular a lo general (método de aprendizaje inductivo) en vez de ir de lo general a lo particular (método de aprendizaje deductivo).

En una situación dinámica, al hablar acerca de la distribución más probable de partículas no estamos descartando la posibilidad de que pueda darse alguna de las otras distribuciones que sean menos probables. Imaginemos que tenemos un recipiente cerrado con una pared separando su interior en dos mitades, e imaginemos también que una mitad del recipiente contiene un gas mientras que la otra mitad del recipiente está vacía. Si desde fuera removemos la restricción (la pared) que separa ambas mitades, entonces del lado del recipiente en donde hay gas fluirá parte del gas hacia el lado que está vacío, hasta que en cuestión de unos cuantos instantes habrá aproximadamente la misma cantidad de gas en ambas mitades del recipiente. Esta es la distribución más probable, no necesitamos de ningún cálculo matemático para darnos cuenta de ello. Sin embargo, en virtud de que todas moléculas del gas están en movimiento continuo, es posible que en cierto instante breve de tiempo haya dos terceras partes del gas en una mitad del recipiente mientras que la otra mitad del recipiente está ocupada por la tercera parte del gas; esta es otra distribución posible de moléculas dentro del recipiente, no hay nada en las leyes de la física que lo prohiba. Sin embargo, esta distribución de moléculas dentro del recipiente es mucho menos probable en virtud de que, desde el punto de vista combinatórico, hay una cantidad mucho menor de maneras posibles en las cuales dos terceras partes del gas estén en una mitad del recipiente que la cantidad de maneras posibles en las cuales haya cantidades iguales de moléculas del gas en ambas mitades del recipiente. Es posible, incluso, que en un instante brevísimo de tiempo todo el gas por sí solo regrese a la mitad del recipiente en donde antes estaba confinado sin que haya una pared divisora de por medio, así como alguna vez lo estuvo en el preciso instante en que se removió la pared, aunque las probabilidades de que esto ocurra son astronómicamente remotas. Aunque no podemos predecir cuándo ocurrirá una fluctuación grande espontánea, sobre un período prolongado de tiempo todas las distribuciones posibles ocurrirán, de ello podemos estar seguros. Pero para una cantidad macroscópica del gas el número de distribuciones posibles es tan grande que al final de cuentas sólo veremos el promedio estadístico de todas las distribuciones posibles que será un número, obviamente, representativo de la distribución más probable.

No hay que perder de vista el hecho de que, para que la distribución de Boltzmann funcione adecuadamente, se requiere un número grande de partículas, lo cual en muchos casos de análisis no presenta dificultad alguna. Estando basada en lo que en matemáticas se conoce como la ley de los grandes números, su aplicación no está limitada a la Mecánica Clásica, sino que puede ser extendida sin mayores problemas a la Mecánica Cuántica como Enrico Fermi, Albert Einstein y Satyendra Nath Bose.

Es necesario recalcar que cuando Ludwig Boltzmann formuló su hoy famosa distribución estadística basada en los principios de la combinatórica, las “cajas de energía” que hemos estado considerando y que podrían interpretarse hoy bajo la Mecánica Cuántica como un postulado de la existencia de una cuantización de la energía en realidad no eran tal cosa. Boltzmann concibió la idea de dichas “cajas” como un expediente hasta cierto punto artificial porque los intervalos de energía ΔE que distinguen a cada caja de energía dentro de un sistema posibilitaban el poder recurrir a los principios de la combinatórica para poder obtener las condiciones necesarias para la distribución más probable. Una vez lograda tal cosa, el paso natural para Boltzmann era considerar el intervalo ΔE infinitesimalmente pequeño, posibilitando el pasar de una distribución discreta de probabilidades a una distribución continua de probabilidades, haciendo en efecto lo siguiente:


Aunque Boltzmann creía firmemente en la existencia de los átomos y las moléculas, o sea la discretización de la materia, en sus tiempos nadie creía en la posibilidad de que la energía también pudiera estar discretizada; tal posibilidad hubiera sido considerada como un absurdo. No fue sino hasta el 14 de diciembre de 1900 cuando Max Planck estableció que la energía no se radía en forma continua sino en unidades pequeñas denominadas “cuantos”, y esto cayó como un balde de agua fría que conmocionó a las comunidades científicas. Es con el descubrimiento de Max Planck de que la energía también está discretizada como dá inicio lo que hoy conocemos como Mecánica Cuántica. Cabe agregar que inclusive en los tiempos de Boltzmann la discretización de la materia en átomos y moléculas era un asunto de gran controversia que causaba tal incredulidad entre los científicos de la época que la tesis de Boltzmann sobre la realidad del átomo y las moléculas (una creencia compartida, sin embargo, por el inglés James Clerk Maxwell y por el estadounidense Josiah Willard Gibbs así como por la gran mayoría de los químicos desde los descubrimientos de John Dalton en 1808) le acarreó a su autor una enorme cantidad de problemas a grado tal que se ha especulado que el rechazo de su teoría fue lo que llevó a Boltzmann a su suicidio. Por estas mismas razones, la aplicación de los principios de la combinatórica al análisis de las distribuciones energéticas de los átomos y las moléculas como lo visualizó Boltzmann no constituye formalmente lo que pudiéramos considerar una Mecánica Estadística Cuántica, la Mecánica Estadística de Boltzmann sólo adquiere un carácter cuántico cuando en vez de hacer tender el intervalo de energía ΔE hacia un infinitésimo detenemos el proceso considerando a dicho intervalo finito, pequeñísimo sí, pero finito, de forma tal que no sólo la materia está cuantizada sino también la energía que pueden poseer cada una de las partículas cuantizadas dentro del sistema.