Equação de Poisson e distribuição de Boltzmann (parte 2.1)

Distribuição Boltzmann (parte 1)

Antes de abordar a conclusão da distribuição de Boltzmann e entender o sentido físico, é necessário fornecer informações preliminares sobre a teoria elementar da probabilidade. O fato é que os macrossistemas que observamos consistem, como você sabe, em um grande número de partículas menores, por exemplo, qualquer substância consiste em átomos, e os últimos, por sua vez, são divididos em núcleos e elétrons, o núcleo atômico é dividido em prótons e nêutrons assim por diante Em um sistema material que possui um grande número de partículas (no chamado microssistema), é inútil considerar cada partícula separadamente, primeiro porque ninguém pode descrever cada partícula (mesmo os supercomputadores modernos) e, em segundo lugar, não nos dará nada, em princípio, porque o comportamento do macrossistema é descrito por parâmetros médios, como veremos mais adiante. Com um número tão grande de partículas, faz sentido estar interessado nas probabilidades de que um parâmetro esteja em uma faixa específica de valores.

Assim, procedemos a algumas definições da teoria da probabilidade e, depois de ter explicado necessariamente a distribuição de Maxwell, abordaremos a análise da distribuição de Boltzmann.

Na teoria das probabilidades, existe um evento aleatório - esse é um fenômeno que, em alguma experiência, ocorre ou não. Por exemplo, considere uma caixa fechada contendo a molécula A e algum volume alocado  Delta tau nesta caixa (ver. Fig. 1).



imagem

Fig. 1

Portanto, um evento aleatório atingirá a molécula A no volume alocado  Delta tau ou a ausência dessa molécula nesse volume (porque a molécula se move e, a qualquer momento, ela existe ou não em um determinado volume).

A probabilidade de um evento aleatório é entendida como a razão do número de tentativas m, na qual esse evento ocorreu, para o número total de tentativas M, e o número total de tentativas deve ser grande. Não podemos falar sobre a probabilidade de um evento em um julgamento. Quanto mais tentativas, mais precisa é a probabilidade do evento.

No nosso caso, a probabilidade de a molécula A estar em volume  Delta tau é igual a:

W(A)= fracmMouW(A)= limM to inftym/M


Agora considere na mesma caixa dois volumes alocados  Delta tau1 e  Delta tau2 (ver fig. 2)

imagem
Fig.2

Se esses dois volumes não se cruzam (veja a Fig. 2a), a molécula A pode, em algum momento no tempo, estar em volume  Delta tau1 ou em volume  Delta tau2 . Ao mesmo tempo, uma molécula não pode estar em dois lugares diferentes. Assim, chegamos ao conceito de eventos incompatíveis quando a implementação de um evento exclui a implementação de outro evento. No caso em que os volumes  Delta tau1 e  Delta tau2 intersect (ver fig.2b), ou seja, a probabilidade de a molécula cair na região de interseção e, em seguida, dois eventos são compatíveis .

A probabilidade de a molécula A cair no volume  Delta tau1 é igual a:

W(1)=m1/M


onde m1 - o número de testes quando a molécula estava em volume  Delta tau1 . Da mesma forma, a probabilidade de a molécula A cair no volume  Delta tau2 é igual a:

W(2)=m2/M


Além disso, o evento em que a molécula cai em pelo menos um dos dois volumes foi realizado m1+m2 vezes. Portanto, a probabilidade deste evento é:

W= fracm1+m2M= fracm1M+ fracm2M=W(1)+W(2)


Assim, podemos concluir que a probabilidade de um dos eventos incompatíveis é igual à soma das probabilidades de cada um deles.

Um grupo completo de eventos incompatíveis é uma combinação de eventos em que a implementação de um é confiável, ou seja, a probabilidade de um dos eventos é 1.

Os eventos são chamados igualmente possíveis se a probabilidade de um deles ter o mesmo valor, ou seja, as probabilidades de todos os eventos são as mesmas.

Considere o último exemplo e apresente o conceito de eventos independentes . Seja o primeiro evento que a molécula A no momento t esteja em volume  Delta tau1 , e o segundo evento - que outra molécula B cai no volume  Delta tau2 . Se a probabilidade de a molécula B entrar no volume  Delta tau2 Não depende se a molécula A está presente  Delta tau1 ou não, esses eventos são chamados independentes.

Suponha que completamos um total de n testes e descobrimos que a molécula A era m1 vezes em volume  Delta tau1 e molécula B - m2 vezes em volume  Delta tau2 , as probabilidades desses eventos são iguais a:

W(A)= fracm1n,W(B)= fracm2n


Vamos tirar dos testes m1 para o qual A caiu  Delta tau1 o número de testes em que B também caiu  Delta tau2 . Obviamente, esse número de ensaios selecionados é m1( fracm2n) . Portanto, a probabilidade de implementação conjunta dos eventos A e B é igual a:

W(AB)= fracm1( fracm2n)n= fracm1n fracm2n=W(A)W(B)


I.e. a probabilidade de eventos independentes na implementação conjunta é igual ao produto das probabilidades de cada evento separadamente.

Se medirmos uma certa quantidade, por exemplo, a velocidade de uma molécula ou a energia de uma única molécula, o valor pode assumir qualquer valor real no eixo numérico (incluindo valores negativos), ou seja, essa quantidade é contínua , em contraste com o que consideramos acima (as chamadas quantidades discretas). Tais quantidades são chamadas de variáveis ​​aleatórias . Para uma variável aleatória contínua, é errado estar interessado na probabilidade de um determinado valor. A formulação correta da pergunta é descobrir a probabilidade de que essa quantidade esteja no intervalo de, digamos x até x + dx. Essa probabilidade é matematicamente igual a:

dW=w(x)dx


Aqui w (x) é uma função chamada densidade de probabilidade. Sua dimensão é o inverso da dimensão da variável aleatória x.

E, finalmente, ainda é necessário dizer uma coisa bastante óbvia, que a probabilidade de um evento confiável ou a soma de todas as probabilidades de um grupo completo de eventos incompatíveis é igual a um.
Em princípio, essas definições são suficientes para mostrarmos a derivação da distribuição de Maxwell e depois da distribuição de Boltzmann.

Portanto, consideraremos um gás ideal (também pode ser um gás de elétron tão rarefeito que a interação dos elétrons pode ser negligenciada). Cada partícula desse gás tem uma velocidade v ou momento p=m0v e todas essas velocidades e impulsos podem ser qualquer coisa. Portanto, esses parâmetros são variáveis ​​aleatórias e estaremos interessados ​​na densidade de probabilidade wp .

Além disso, é conveniente introduzir o conceito de espaço de pulsos. Adiamos os componentes do momento das partículas ao longo dos eixos do sistema de coordenadas (ver Fig. 3)

imagem
Fig. 3

Precisamos descobrir qual é a probabilidade de que cada componente do pulso esteja nas faixas:

px div(px+dpx);py div(py+dpy);pz div(pz+dpz)


Ou seja, a mesma coisa, o final do vetor p está no volume retangular dΩ:

d Omega=dpxdpydpz


Maxwell colocou dois postulados, com base nos quais ele derivou a distribuição do momento. Ele sugeriu:

A) Todas as direções no espaço são iguais e essa propriedade é chamada isotropia, em particular a isotropia de densidade de probabilidade wp .

B) O movimento das partículas ao longo de três eixos mutuamente perpendiculares é independente, isto é, valor do impulso px não depende do valor de seus outros componentes py e pz .

As partículas se movem em direções diferentes, tanto na direção positiva quanto na negativa. Ou seja, ao longo do eixo x, o valor do pulso pode assumir px então e px . Mas a densidade de probabilidade é uma função par (ou seja, para valores negativos do argumento, a função é positiva), portanto depende do quadrado px :

wpx= phi(p2x)


A partir das propriedades da isotropia (veja acima), segue-se que as densidades de probabilidade dos outros dois componentes são expressas da mesma forma:

wpy= phi(p2y);wpz= phi(p2z)


Por definição, a probabilidade de o momento p inserir o volume dΩ é igual a:

dW=wpd Omega


Lembre-se de que descobrimos acima que, para eventos independentes, essa probabilidade pode ser expressa através do produto das probabilidades dos eventos de cada componente:

wpd Omega=wpxdpxwpydpywpzdpz= phi(p2x) phi(p2y) phi(p2z)dpxdpydpz


Portanto:

wp= psi(p2)= phi(p2x) phi(p2y) phi(p2z)


Vamos logaritmo dessa expressão e obter:

ln psi=ln phi(p2x)+ln phi(p2y)+ln phi(p2z)


Então diferenciamos essa identidade em relação a px :

 frac psi psi2px= frac phi phi2px


, onde o primo denota a derivada da função correspondente em relação ao seu argumento complexo.

Após a redução nessa expressão para 2px nós obtemos:

 frac psi(p2) psi(p2)= frac phi(p2x) phi(p2x)


O mesmo se aplica a outros componentes dos pulsos, respectivamente, obtemos:

 frac psi(p2) psi(p2)= frac phi(p2y) phi(p2y); frac psi(p2) psi(p2)= frac phi(p2z) phi(p2z)


Isso implica relacionamentos importantes:

 frac phi(p2x) phi(p2x)= frac phi(p2y) phi(p2y)= frac phi(p2z) phi(p2z)


A partir dessas expressões, fica claro que as relações da derivada da função com relação à função de um ou outro componente do momento são constantes, respectivamente, podemos escrever da seguinte forma (denotamos a constante como  beta ):

 frac phi(p2x) phi(p2x)= beta


Resolvendo essa equação diferencial, obtemos (como essas equações são resolvidas podem ser encontradas em qualquer livro sobre equações diferenciais ordinárias):

 phi(p2x)=Ce betap2x


Onde C e β são constantes que ainda devemos derivar (no próximo artigo). Assim, a partir da condição de isotropia e independência de movimento ao longo dos eixos coordenados, segue-se que a probabilidade dWpx desse componente do momento px estará no intervalo dpx determinado pela razão:

dWpx=Ce betap2xdpx


, e a probabilidade dW de que o pulso estará no volume dΩ é (lembre-se do produto das probabilidades de eventos independentes):

dW=C3e betap2d Omega


No próximo artigo, concluiremos a derivação da distribuição Maxwell, descobriremos o significado físico dessa distribuição e iremos diretamente para a derivação da distribuição Boltzmann.

Source: https://habr.com/ru/post/pt406845/


All Articles