Distribuição Boltzmann (parte 1)Antes de abordar a conclusão da distribuição de Boltzmann e entender o sentido físico, é necessário fornecer informações preliminares sobre a teoria elementar da probabilidade. O fato é que os macrossistemas que observamos consistem, como você sabe, em um grande número de partículas menores, por exemplo, qualquer substância consiste em átomos, e os últimos, por sua vez, são divididos em núcleos e elétrons, o núcleo atômico é dividido em prótons e nêutrons assim por diante Em um sistema material que possui um grande número de partículas (no chamado microssistema), é inútil considerar cada partícula separadamente, primeiro porque ninguém pode descrever cada partícula (mesmo os supercomputadores modernos) e, em segundo lugar, não nos dará nada, em princípio, porque o comportamento do macrossistema é descrito por parâmetros médios, como veremos mais adiante. Com um número tão grande de partículas, faz sentido estar interessado nas probabilidades de que um parâmetro esteja em uma faixa específica de valores.
Assim, procedemos a algumas definições da teoria da probabilidade e, depois de ter explicado necessariamente a distribuição de Maxwell, abordaremos a análise da distribuição de Boltzmann.
Na teoria das probabilidades, existe um
evento aleatório - esse é um fenômeno que, em alguma experiência, ocorre ou não. Por exemplo, considere uma caixa fechada contendo a molécula A e algum volume alocado
Delta tau nesta caixa (ver. Fig. 1).

Fig. 1
Portanto, um evento aleatório atingirá a molécula A no volume alocado
Delta tau ou a ausência dessa molécula nesse volume (porque a molécula se move e, a qualquer momento, ela existe ou não em um determinado volume).
A
probabilidade de um evento aleatório é entendida como a razão do número de tentativas m, na qual esse evento ocorreu, para o número total de tentativas M, e o número total de tentativas deve ser grande. Não podemos falar sobre a probabilidade de um evento em um julgamento. Quanto mais tentativas, mais precisa é a probabilidade do evento.
No nosso caso, a probabilidade de a molécula A estar em volume
Delta tau é igual a:
W(A)= fracmMouW(A)= limM to inftym/M
Agora considere na mesma caixa dois volumes alocados
Delta tau1 e
Delta tau2 (ver fig. 2)

Fig.2
Se esses dois volumes não se cruzam (veja a Fig. 2a), a molécula A pode, em algum momento no tempo, estar em volume
Delta tau1 ou em volume
Delta tau2 . Ao mesmo tempo, uma molécula não pode estar em dois lugares diferentes. Assim, chegamos ao conceito de
eventos incompatíveis quando a implementação de um evento exclui a implementação de outro evento. No caso em que os volumes
Delta tau1 e
Delta tau2 intersect (ver fig.2b), ou seja, a probabilidade de a molécula cair na região de interseção e, em seguida, dois eventos são
compatíveis .
A probabilidade de a molécula A cair no volume
Delta tau1 é igual a:
W(1)=m1/M
onde
m1 - o número de testes quando a molécula estava em volume
Delta tau1 . Da mesma forma, a probabilidade de a molécula A cair no volume
Delta tau2 é igual a:
W(2)=m2/M
Além disso, o evento em que a molécula cai em pelo menos um dos dois volumes foi realizado
m1+m2 vezes. Portanto, a probabilidade deste evento é:
W= fracm1+m2M= fracm1M+ fracm2M=W(1)+W(2)
Assim, podemos concluir que a probabilidade de um dos eventos incompatíveis é igual à soma das probabilidades de cada um deles.
Um grupo completo de eventos incompatíveis é uma combinação de eventos em que a implementação de um é confiável, ou seja, a probabilidade de um dos eventos é 1.
Os eventos são chamados
igualmente possíveis se a probabilidade de um deles ter o mesmo valor, ou seja, as probabilidades de todos os eventos são as mesmas.
Considere o último exemplo e apresente o conceito de
eventos independentes . Seja o primeiro evento que a molécula A no momento t esteja em volume
Delta tau1 , e o segundo evento - que outra molécula B cai no volume
Delta tau2 . Se a probabilidade de a molécula B entrar no volume
Delta tau2 Não depende se a molécula A está presente
Delta tau1 ou não, esses eventos são chamados independentes.
Suponha que completamos um total de n testes e descobrimos que a molécula A era
m1 vezes em volume
Delta tau1 e molécula B -
m2 vezes em volume
Delta tau2 , as probabilidades desses eventos são iguais a:
W(A)= fracm1n,W(B)= fracm2n
Vamos tirar dos testes
m1 para o qual A caiu
Delta tau1 o número de testes em que B também caiu
Delta tau2 . Obviamente, esse número de ensaios selecionados é
m1( fracm2n) . Portanto, a probabilidade de implementação conjunta dos eventos A e B é igual a:
W(AB)= fracm1( fracm2n)n= fracm1n fracm2n=W(A)W(B)
I.e. a probabilidade de eventos independentes na implementação conjunta é igual ao produto das probabilidades de cada evento separadamente.
Se medirmos uma certa quantidade, por exemplo, a velocidade de uma molécula ou a energia de uma única molécula, o valor pode assumir qualquer valor real no eixo numérico (incluindo valores negativos), ou seja, essa quantidade é
contínua , em contraste com o que consideramos acima (as chamadas quantidades discretas). Tais quantidades são chamadas
de variáveis aleatórias . Para uma variável aleatória contínua, é errado estar interessado na probabilidade de um determinado valor. A formulação correta da pergunta é descobrir a probabilidade de que essa quantidade esteja no intervalo de, digamos x até x + dx. Essa probabilidade é matematicamente igual a:
dW=w(x)dx
Aqui w (x) é uma função chamada densidade de probabilidade. Sua dimensão é o inverso da dimensão da variável aleatória x.
E, finalmente, ainda é necessário dizer uma coisa bastante óbvia, que a probabilidade de um evento confiável ou a soma de todas as probabilidades de um grupo completo de eventos incompatíveis é igual a um.
Em princípio, essas definições são suficientes para mostrarmos a derivação da distribuição de Maxwell e depois da distribuição de Boltzmann.
Portanto, consideraremos um gás ideal (também pode ser um gás de elétron tão rarefeito que a interação dos elétrons pode ser negligenciada). Cada partícula desse gás tem uma velocidade v ou momento
p=m0v e todas essas velocidades e impulsos podem ser qualquer coisa. Portanto, esses parâmetros são variáveis aleatórias e estaremos interessados na densidade de probabilidade
wp .
Além disso, é conveniente introduzir o conceito de espaço de pulsos. Adiamos os componentes do momento das partículas ao longo dos eixos do sistema de coordenadas (ver Fig. 3)

Fig. 3
Precisamos descobrir qual é a probabilidade de que cada componente do pulso esteja nas faixas:
px div(px+dpx);py div(py+dpy);pz div(pz+dpz)
Ou seja, a mesma coisa, o final do vetor p está no volume retangular dΩ:
d Omega=dpxdpydpz
Maxwell colocou dois postulados, com base nos quais ele derivou a distribuição do momento. Ele sugeriu:
A) Todas as direções no espaço são iguais e essa propriedade é chamada isotropia, em particular a isotropia de densidade de probabilidade
wp .
B) O movimento das partículas ao longo de três eixos mutuamente perpendiculares é independente, isto é, valor do impulso
px não depende do valor de seus outros componentes
py e
pz .
As partículas se movem em direções diferentes, tanto na direção positiva quanto na negativa. Ou seja, ao longo do eixo x, o valor do pulso pode assumir
px então e
−px . Mas a densidade de probabilidade é uma função par (ou seja, para valores negativos do argumento, a função é positiva), portanto depende do quadrado
px :
wpx= phi(p2x)
A partir das propriedades da isotropia (veja acima), segue-se que as densidades de probabilidade dos outros dois componentes são expressas da mesma forma:
wpy= phi(p2y);wpz= phi(p2z)
Por definição, a probabilidade de o momento p inserir o volume dΩ é igual a:
dW=wpd Omega
Lembre-se de que descobrimos acima que, para eventos independentes, essa probabilidade pode ser expressa através do produto das probabilidades dos eventos de cada componente:
wpd Omega=wpxdpxwpydpywpzdpz= phi(p2x) phi(p2y) phi(p2z)dpxdpydpz
Portanto:
wp= psi(p2)= phi(p2x) phi(p2y) phi(p2z)
Vamos logaritmo dessa expressão e obter:
ln psi=ln phi(p2x)+ln phi(p2y)+ln phi(p2z)
Então diferenciamos essa identidade em relação a
px :
frac psi′ psi2px= frac phi′ phi2px
, onde o primo denota a derivada da função correspondente em relação ao seu argumento complexo.
Após a redução nessa expressão para
2px nós obtemos:
frac psi′(p2) psi(p2)= frac phi′(p2x) phi(p2x)
O mesmo se aplica a outros componentes dos pulsos, respectivamente, obtemos:
frac psi′(p2) psi(p2)= frac phi′(p2y) phi(p2y); frac psi′(p2) psi(p2)= frac phi′(p2z) phi(p2z)
Isso implica relacionamentos importantes:
frac phi′(p2x) phi(p2x)= frac phi′(p2y) phi(p2y)= frac phi′(p2z) phi(p2z)
A partir dessas expressões, fica claro que as relações da derivada da função com relação à função de um ou outro componente do momento são constantes, respectivamente, podemos escrever da seguinte forma (denotamos a constante como
− beta ):
frac phi′(p2x) phi(p2x)=− beta
Resolvendo essa equação diferencial, obtemos (como essas equações são resolvidas podem ser encontradas em qualquer livro sobre equações diferenciais ordinárias):
phi(p2x)=Ce− betap2x
Onde C e β são constantes que ainda devemos derivar (no próximo artigo). Assim, a partir da condição de isotropia e independência de movimento ao longo dos eixos coordenados, segue-se que a probabilidade
dWpx desse componente do momento
px estará no intervalo
dpx determinado pela razão:
dWpx=Ce− betap2xdpx
, e a probabilidade dW de que o pulso estará no volume dΩ é (lembre-se do produto das probabilidades de eventos independentes):
dW=C3e− betap2d Omega
No próximo artigo, concluiremos a derivação da distribuição Maxwell, descobriremos o significado físico dessa distribuição e iremos diretamente para a derivação da distribuição Boltzmann.