Ecuación de Poisson y distribución de Boltzmann (parte 2.1)

Distribución de Boltzmann (parte 1)

Antes de acercarnos a la conclusión de la distribución de Boltzmann y comprender el sentido físico, es necesario proporcionar información preliminar sobre la teoría elemental de la probabilidad. El hecho es que los macrosistemas que observamos consisten, como saben, en una gran cantidad de partículas más pequeñas, por ejemplo, cualquier sustancia consiste en átomos, y estos últimos, a su vez, se dividen en núcleos y electrones, el núcleo de un átomo se divide en protones y neutrones y etc. En un sistema material que tiene una gran cantidad de partículas (en el llamado microsistema) no tiene sentido considerar cada partícula por separado, en primer lugar porque nadie puede describir cada partícula (incluso las supercomputadoras modernas), y en segundo lugar no nos dará nada, en principio, porque el comportamiento del macrosistema se describe mediante parámetros promediados, como veremos más adelante. Con una cantidad tan grande de partículas, tiene sentido estar interesado en las probabilidades de que un parámetro se encuentre en un rango particular de valores.

Entonces, procedemos a algunas definiciones de la teoría de la probabilidad, y luego, habiendo explicado necesariamente la distribución de Maxwell, abordaremos el análisis de la distribución de Boltzmann.

En la teoría de la probabilidad, existe un evento aleatorio : este es un fenómeno que, en alguna experiencia, tiene lugar o no. Por ejemplo, considere una caja cerrada que contiene la molécula A y un volumen asignado  Delta tau en este cuadro (ver. Fig. 1).



imagen

Fig. 1

Entonces, un evento aleatorio golpeará a la molécula A en el volumen asignado  Delta tau , o la ausencia de esta molécula en este volumen (porque la molécula se mueve, y en cualquier momento existe o no en un cierto volumen).

La probabilidad de un evento aleatorio se entiende como la relación entre el número de ensayos m, en el que tuvo lugar este evento, y el número total de ensayos M, y el número total de ensayos debe ser grande. No podemos hablar sobre la probabilidad de un evento en un ensayo. Cuantas más pruebas, más precisa será la probabilidad del evento.

En nuestro caso, la probabilidad de que la molécula A esté en volumen  Delta tau es igual a:

W(A)= fracmM,oW(A)= limM to inftym/M


Ahora considere en el mismo cuadro dos volúmenes asignados  Delta tau1 y  Delta tau2 (ver figura 2)

imagen
Fig.2

Si estos dos volúmenes no se cruzan (ver Fig. 2a), entonces la molécula A puede estar en algún momento en volumen  Delta tau1 o en volumen  Delta tau2 . Al mismo tiempo, una molécula no puede estar en dos lugares diferentes. Por lo tanto, llegamos al concepto de eventos incompatibles cuando la implementación de un evento excluye la implementación de otro evento. En el caso cuando los volúmenes  Delta tau1 y  Delta tau2 intersecar (ver figura 2b), es decir, la probabilidad de que la molécula pueda caer en la región de intersección, y luego dos eventos son compatibles .

La probabilidad de que la molécula A caiga en el volumen  Delta tau1 es igual a:

W(1)=m1/M


donde m1 - el número de pruebas cuando la molécula estaba en volumen  Delta tau1 . Del mismo modo, la probabilidad de que la molécula A caiga en el volumen  Delta tau2 es igual a:

W(2)=m2/M


Además, el evento de que la molécula cae en al menos uno de los dos volúmenes se ha realizado m1+m2 tiempos Por lo tanto, la probabilidad de este evento es:

W= fracm1+m2M= fracm1M+ fracm2M=W(1)+W(2)


Por lo tanto, podemos concluir que la probabilidad de uno de los eventos incompatibles es igual a la suma de las probabilidades de cada uno de ellos.

Un grupo completo de eventos incompatibles es una combinación de eventos en la cual la implementación de uno es confiable, es decir La probabilidad de uno de los eventos es 1.

Los eventos se llaman igualmente posibles si la probabilidad de que uno de ellos tenga el mismo valor, es decir Las probabilidades de todos los eventos son las mismas.

Considere el último ejemplo e introduzca el concepto de eventos independientes . Supongamos que el primer evento es que la molécula A en el tiempo t está en volumen  Delta tau1 y el segundo evento: que otra molécula B cae en el volumen  Delta tau2 . Si la probabilidad de que la molécula B ingrese al volumen  Delta tau2 No depende de si la molécula A está en  Delta tau1 o no, estos eventos se llaman independientes.

Supongamos que completamos un total de n pruebas y descubrimos que la molécula A era m1 veces en volumen  Delta tau1 , y la molécula B - m2 veces en volumen  Delta tau2 , entonces las probabilidades de estos eventos son iguales a:

W(A)= fracm1n,W(B)= fracm2n


Tomaremos de las pruebas m1 por lo cual A cayó  Delta tau1 el número de pruebas en las que B también cayó  Delta tau2 . Obviamente, este número de ensayos seleccionados es m1( fracm2n) . Por lo tanto, la probabilidad de la implementación conjunta de los eventos A y B es igual a:

W(AB)= fracm1( fracm2n)n= fracm1n fracm2n=W(A)W(B)$


Es decir La probabilidad de eventos independientes en la implementación conjunta es igual al producto de las probabilidades de cada evento por separado.

Si medimos una cierta cantidad, por ejemplo, la velocidad de una molécula o la energía de una sola molécula, entonces el valor puede tomar cualquier valor real en el eje numérico (incluidos los valores negativos), es decir. esta cantidad es continua , en contraste con lo que consideramos anteriormente (las llamadas cantidades discretas). Tales cantidades se llaman variables aleatorias . Para una variable aleatoria continua, es incorrecto estar interesado en la probabilidad de un valor dado. La formulación correcta de la pregunta es encontrar la probabilidad de que esta cantidad se encuentre en el rango de, digamos x a x + dx. Esta probabilidad es matemáticamente igual a:

dW=w(x)dx


Aquí w (x) es una función llamada densidad de probabilidad. Su dimensión es la inversa de la dimensión de la variable aleatoria x.

Y finalmente, aún es necesario decir algo bastante obvio, que la probabilidad de un evento confiable, o la suma de todas las probabilidades de un grupo completo de eventos incompatibles es igual a uno.
En principio, estas definiciones son suficientes para mostrar la derivación de la distribución de Maxwell, y luego la distribución de Boltzmann.

Por lo tanto, consideraremos un gas ideal (también puede ser un gas electrónico tan enrarecido que se puede descuidar la interacción de los electrones). Cada partícula de este gas tiene una velocidad v o momento p=m0v y todas estas velocidades e impulsos pueden ser cualquier cosa. Estos parámetros son variables aleatorias y nos interesará la densidad de probabilidad wp .

Además, es conveniente introducir el concepto del espacio de pulsos. Posponemos los componentes del momento de las partículas a lo largo de los ejes del sistema de coordenadas (ver Fig. 3)

imagen
Fig. 3

Necesitamos averiguar cuál es la probabilidad de que cada componente del pulso se encuentre en los rangos:

px div(px+dpx);py div(py+dpy);pz div(pz+dpz)


Es decir, lo mismo, el final del vector p está en el volumen rectangular dΩ:

d Omega=dpxdpydpz


Maxwell puso dos postulados, en base a los cuales derivó la distribución de momentos. Él sugirió:

A) Todas las direcciones en el espacio son iguales y esta propiedad se llama isotropía, en particular la isotropía de densidad de probabilidad wp .

B) El movimiento de las partículas a lo largo de tres ejes mutuamente perpendiculares es independiente, es decir. valor de impulso px no depende del valor de sus otros componentes py y pz .

Las partículas se mueven en diferentes direcciones, tanto en la dirección positiva como en la negativa. Es decir, a lo largo del eje x, el valor del pulso puede tomar el valor como px así y px . Pero la densidad de probabilidad es una función par (es decir, para valores negativos del argumento, la función es positiva), por lo que depende del cuadrado px :

wpx= phi(p2x)


De las propiedades de la isotropía (ver arriba) se deduce que las densidades de probabilidad de los otros dos componentes se expresan de manera similar:

wpy= phi(p2y);wpz= phi(p2z)


Por definición, la probabilidad de que el momento p entre en el volumen dΩ es igual a:

dW=wpd Omega


Recuerde que descubrimos anteriormente que para eventos independientes esta probabilidad se puede expresar a través del producto de las probabilidades de los eventos de cada componente:

wpd Omega=wpxdpxwpydpywpzdpz= phi(p2x) phi(p2y) phi(p2z)dpxdpydpz


Por lo tanto:

wp= psi(p2)= phi(p2x) phi(p2y) phi(p2z)


Permítanos logaritmar esta expresión y obtener:

ln psi=ln phi(p2x)+ln phi(p2y)+ln phi(p2z)


Luego diferenciamos esta identidad con respecto a px :

 frac psi psi2px= frac phi phi2px


, donde el primo denota la derivada de la función correspondiente con respecto a su argumento complejo.

Después de la reducción en esta expresión a 2px obtenemos:

 frac psi(p2) psi(p2)= frac phi(p2x) phi(p2x)$


Lo mismo se aplica a otros componentes de los pulsos, respectivamente, obtenemos:

 frac psi(p2) psi(p2)= frac phi(p2y) phi(p2y); frac psi(p2) psi(p2)= frac phi(p2z) phi(p2z)


Esto implica relaciones importantes:

 frac phi(p2x) phi(p2x)= frac phi(p2y) phi(p2y)= frac phi(p2z) phi(p2z)


A partir de estas expresiones, está claro que las relaciones de la derivada de la función con respecto a la función de uno u otro componente del momento es una constante, respectivamente, podemos escribir de la siguiente manera (denotamos la constante como  beta ):

 frac phi(p2x) phi(p2x)= beta


Al resolver esta ecuación diferencial, obtenemos (cómo se pueden resolver tales ecuaciones en cualquier libro de texto sobre ecuaciones diferenciales ordinarias):

 phi(p2x)=Ce betap2x


Donde C y β son constantes que todavía tenemos que derivar (en el siguiente artículo). Por lo tanto, a partir de la condición de isotropía y la independencia del movimiento a lo largo de los ejes de coordenadas, se deduce que la probabilidad dWpx de ese componente de impulso px estará en el intervalo dpx determinado por la relación:

dWpx=Ce betap2xdpx


, y la probabilidad dW de que el pulso estará en el volumen dΩ es (recuerde el producto de las probabilidades de eventos independientes):

dW=C3e betap2d Omega


En el próximo artículo, completaremos la derivación de la distribución de Maxwell, descubriremos el significado físico de esta distribución e iremos directamente a la derivación de la distribución de Boltzmann.

Source: https://habr.com/ru/post/es406845/


All Articles