You are on page 1of 19

3

1. Teoria das Distribui c oes da F sica Estat stica


Esta introdu ca o visa familiarizar o leitor com conceitos estat sticos, distribui c oes, probabilidades, etc.. Os exemplos dados poder ao parecer em primeira inspe ca o banais, por em cont em os ingredientes matem aticos necess arios para se compreender as aplica co es f sicas a serem estudadas ao longo do curso. A exposi ca o ser a sucinta e desprovida de rigor matem atico. Para material de apoio e complemento, algumas refer encias padr ao s ao fornecidas ao nal do cap tulo. O objetivo de uma teoria estat stica e descrever comportamentos m edios de sistemas. Em particular, a teoria ser a mais eciente quando tratar de N sistemas preparados de forma semelhante com N 1. O tratamento estat stico e bastante usado em v arios campos do conhecimento, tais como f sica, medicina, sociologia, etc.. Uma teoria aplic avel em uma variedade t ao grande de problemas n ao pode ser baseada exclusivamente em caracter sticas espec cas dos sistemas estudados. Veremos que algumas hip oteses fortes sobre aspectos gen ericos dos problemas a serem estudados nos permitem uma grande simplica ca o e o uso de um tratamento unicado. Os exemplos a seguir tornar ao mais clara esta discuss ao: Um problema estat stico simples com o qual nos defrontamos j a em cursos de matem atica elementar e: Jogando cara ou coroa com uma moeda N vezes, qual a probabilidade de que obtenhamos cara n vezes (com n N )? Este problema nos e familiar e sabemos trat a-lo usando a teoria de probabilidades a qual nada mais e do que a teoria estat stica. Um exemplo de um problema de f sica e: Uma part cula em suspens ao na superf cie de um l quido percorre em m edia uma dist ancia entre colis oes com outras part culas. Ap os N colis oes qual a probabilidade de que a part cula em quest ao esteja a uma dist ancia d do ponto inicial? A teoria estat stica d a uma resposta. A chave para identicarmos a semelhan ca entre os exemplos dados est a na complexidade da din amica dos mesmos. De fato, mesmo o primeiro exemplo poderia ser descrito atrav es da mec anica cl assica. Imagine que conhec essemos as condi co es iniciais da moeda ao ser lan cada com grande precis ao e pud essemos integrar suas equa co es de movimento. Isto nos propiciaria prever se o resultado seria cara ou coroa, pois trata-se de um problema determin stico. A pr atica nos mostra que tal projeto e bastante dif cil de ser executado caso contr ario, algu em j a estaria explorando um cassino com esta id eia. Por tr as disto est aa no ca o de ergodicidade, a base em que se apoia a teoria estat stica. Quando um problema e muito complexo e o resultado nal varia drasticamente atrav es de altera co es m nimas das condi c oes iniciais, o problema e classicado como erg odico e um tratamento estat stico torna-se adequado. Pense que mesmo tendo calculado o resultado do lan camento da moeda para um conjunto de condi co es iniciais, uma s ubita lufada de vento pode p or todo c alculo a perder. O problema erg odico n ao ser a tratado neste curso, pois o tornaria demasi-

1 0 1 0 00 11 11 00 00 11 00 11 00 11 00 11 1 0 0 1 1 0 1 0 1 0 1 0

l
11 00 00 11 00 11 111 000 000 111 000 111 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 1 0 1 0 0 1 1 0 1 0 1 0 0 1 1 0 1 0

1 0 0 1

1 0 1 0

1 0 1 0

Figure 1: Part cula movendo-se sob a a ca o de centros espalhadores. adamente longo. Voltaremos a esta discuss ao em outras oportunidades mais ` a frente, mas sempre supercialmente. Refer encias bibliogr acas adequadas sobre o assunto est ao listadas no nal do cap tulo. A mensagem que deve car e que e freq uente encontrarmos sistemas cujo comportamento e determin stico, mas que podem ser considerados como dando eventos completamente aleat orios e descorrelacionados. O roteiro deste cap tulo se inicia com uma apresenta ca o dos elementos b asicos da teoria estat stica. Come camos nossa discuss ao com vari aveis discretas, distribui c ao binomial e o exemplo do passeio aleat orio. Passamos ent ao para o limite cont nuo e discutimos a distribui c ao gaussiana e a distribui c ao de Poisson, ambas de grande relev ancia para f sica.

1.1. Elementos b asicos de estat stica


Tomemos de uma vari avel u que s o possa assumir um conjunto cont avel (nito ou innito) de M valores u1, u2, , uM . Esta vari avel e chamada de estoc astica quando seu valor s o pode ser determinado ap os o exame do resultado do experimento, como por exemplo no jogo de cara ou coroa. Podemos denir P (ui), a probabilidade de um experimento dar ui . Obviamente a fun c ao P (u) deve satisfazer P (u) 0 e i P (ui ) . O valor m edio de u, que ser a denotado por u, e dado por u= P ( u1 ) u1 + + P ( uM ) uM P ( u1 ) + + P ( uM ) ou u=
M i=1 P (ui )ui M i=1 P (ui )

(1)

Por conveni encia, em geral, as distribui co es de probabilidade s ao normalizadas u `nidade,


M

P ( ui ) = 1 .
i=1

(2)

5 Assim sendo a m edia passa a ser dada pela forma mais simples
M

u=
i=1

P ( ui ) ui .

(3)

Esta deni ca o e facilmente estendida a m edias de fun co es arbitr arias da vari avel u
M

f ( u) =
i=1

P ( ui ) f ( ui ) .

(4)

Por vezes desejamos obter apenas algumas informa co es simples de uma distribui c ao, enquanto que conhecer a fun ca o exata que ajusta tal distribui ca o e uma informa c ao que n ao nos interessa. Nestes casos e interessante se conhecer os primeiros momentos de uma distribui ca o, onde o n- esimo momento e denido como
M

un
i=1

P ( ui ) un i .

(5)

Em primeira inspe ca o, poder amos conjecturar que conhecendo todos os momentos de uma distribui ca o, te-la- amos caracterizado completamente. Infelizmente h a alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por vezes o primeiro e segundo momentos de uma distribui c ao cont em informa ca o suciente para diversas aplica co es f sicas. O primeiro momento nada mais e do que a m edia da distribui ca o, como ca claro ao compararmos a Eq. (3) com a Eq. (5). Muito u til tamb em e a vari ancia, denida como o segundo momento em torno da m edia, ou
M

(u)2 (u u)2 =
i=1

P (ui)(ui u)2 2 ,

(6)

onde e chamado de desvio padr ao. Note que (u u)2 = u2 2uu + u2 = u2 2u u + u2 = u2 u2 , como (u)2 0, ent ao u2 u2 , (7) comum usar-se tamb garantindo que a vari ancia e sempre positiva ou nula. E em 2 u para denotar a vari ancia no que segue daremos prefer encia a esta u ltima nota ca o. A maioria dos problemas f sicos a serem considerados neste curso envolvem vari aveis estoc asticas cont nuas e n ao as discretas, descritas acima. Para tratarmos tais problemas, os conceitos acima apresentados precisam ser estendidos. Como acima, tamb em quando trabalhamos com uma vari avel estoc astica cont nua x, a quantidade estat stica central de interesse e a distribui c ao P (x). Neste caso,

6 a probabilidade de que o resultado de uma medida de x esteja entre os valores aeb e dada por:
b

P (a x b) =
a

dx P (x) .

(8)

Esta deni ca o e tamb em a justicativa para chamarmos P (x) de densidade de probabilidade. A igualdade acima e v alida para P (x) normalizados a unidade dx P (x) = 1 ,
D

onde a integra ca o e feita sobre todo o dom nio D da densidade de probabilidade. Estas considera co es nos levam imediatamente ` a generaliza ca o dos momentos de uma distribui c ao. A deni ca o agora passa a ser xn =
D

dx xn P (x) .

Esta rela ca o ser a muito utilizada nos cap tulos que se seguem.

1.2. Passeio aleat orio e a distribui c ao binomial


Consideremos o problema de uma part cula restrita a movimentar-se em uma dimens ao sob a inu encia de um potencial que age periodicamente. Suponhamos ainda que o potencial age ap os cada passo de comprimento da part cula e seu efeito e de determinar aleatoriamente em que dire ca o ser a dado o pr oximo passo. Seja p a probabilidade de ir para a direita e q a de ir para a esquerda: Ap os N passos, a pergunta natural deste problema e: Qual a probabilidade de encontrarmos a part cula na posi ca o m, ao nal destes N passos? Ou melhor, quanto vale PN (m)? Alternativamente sabendo o n umero de passos para a direita, n1 ; ou o n umero de passos para a esquerda n2, a posi ca o m ca determinada, pois n1 + n2 = N e n1 n2 = m . (9)

A probabilidade de uma seq u encia de n1 passos para a direita e n2 passos para a esquerda e dada pelo produto p p
n1

q q
n2 vezes

= pn1 qn2 .

(10)

H a, no entanto, para um total de N passos v arias seq u encias distintas compostas de n1 passos ` a direita e n2 passos ` a esquerda. O n umero total de seq u encias distintas C corresponde ao n umero de permuta co es na ordem em que os passos s ao dados para a direita e para a esquerda. Este n umero e

C=

N! . n 1 !n 2 !

(11)

Ent ao a probabilidade de tomarmos n1 passos ` a direita (ou n2 = N n1 ` a esquerda) em qualquer ordem e obtida multiplicando a probabilidade pelo n umero de caminhos poss veis. WN (n1 ) = N ! n1 n2 p q . n 1 !n 2 ! (12)

Esta e a distribui c ao binomial. 1 Como n1 e N determinam a posi ca o m, pois n1 = (N + m)/2 e n2 = (N m)/2, podemos traduzir WN (n1) em PN (m) P N ( m) = N! (N + m)/2 ! (N m)/2 ! Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N = 20 vezes. A probabilidade de obtermos cara e p = 1/2 (an alogo ao ir para a direita ou esquerda com p = 1/2 no problema do passeio aleat orio) e coroa tem probabilidade q = 1 1/2 = 1/2. Figura 1.2. p(N +m)/2 (1 p)(N m)/2 . (13)

A gura acima traduz muito bem o resultado intuitivo de que jogando N = 20 vezes, o resultado mais prov avel e que tenhamos 10 eventos cara (n1 = 10). Para n1 = 10, W20 (n1) tem seu m aximo e nos d a o resultado importante notar que resultados muito diferentes de n1 = 10 mais prov avel. E s ao pouco prov aveis, ou seja |n1 10| 1, W20 (n1 ) 0. Voltemos ao problema do passeio aleat orio para estudarmos o valor m edio e a vari ancia. O n umero m edio de passos ` a direita e obtido usando as Eqs.(3) e(12)
N N

n1 =
n1 =0
1 Aqui

WN (n1) n1 =
n1

N! pn1 qN n1 n1 . n !( N n1)! =0 1
N n=0

(14)

conv em nos lembrarmos da expans ao binomial: (p + q)N =

N !/(n!(N

n)!)pn qN n .

8 Atrav es do m etodo da for ca bruta podemos calcular n1 atrav es dos seguintes passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o cuidado de alterar o somat orio
N

n1 =
n1

N! pn1 qN n1 , ( n 1)!( N n )! 1 1 =1

em seguida, fazendo a mudan ca de vari aveis n = n1 1, obtemos uma nova distribui ca o binomial em n
N 1

n1 =
n =0

N! pn +1 qN 1n = N p n !(N 1 n )!

N 1

n =0

(N 1)! pn qN 1n . n !(N 1 n )!

A nova somat oria e a expans ao binomial de (p + q)N 1 . O resultado nal e n1 = N p . (15)

Este resultado j a era previs vel antes mesmo de fazermos as contas, pois a m edia de passos para a esquerda nada mais e do que o n umero total de passos N vezes a probabilidade p de ir para a esquerda a cada passo. Um modo mais elegante de obtermos este resultado e observarmos que n1pn1 = p n1 (p ) . p

Usando esta identidade em (14) escrevemos n1 = p p


N

WN (n1) = p
n1 =0

(p + q )N = p N . p

(16)

Este truque torna f acil a tarefa de calcular o segundo momento n2 i (tente o m etodo direto, e conven ca-se de que este e bastante trabalhoso!)
N N 2

n2 1

n1

N! pn1 qN n1 n2 1 = n !( N n )! 1 1 =0 n
2

N! n !( N n1 )! 1 =0

pn1 qN n1

p p

(p + q )N .

(17)

Desta equa ca o, operando as derivadas e ap os algumas manipula c oes alg ebricas, obtemos 2 n2 (18) 1 = (N p) + N pq , o que nos leva ao resultado nal para a vari ancia
2 n2 1 (n1 n1 ) = N pq .

(19)

9 A vari ancia envolve quadrados de n1 e uma boa estimativa da vari ancia t pica vem de n2 N pq q 1 n2 1 1 1 = . = ou (20) n1 Np p N n1 N A express ao (20) implica ao dividido pelo que com N crescente o desvio padr valor m edio cai com 1/ N . Este quociente e um bom par ametro para uma estimativa do intervalo de conabilidade (ou erro) de um experimento, como por exemplo N jogos de cara ou coroa.

1.3. A distribui ca o de Poisson


A distribui c ao poissoniana e um caso particular da distribui c ao binomial, quando um evento tem probabilidade muito pequena de ocorrer (p 1), mas o n umero total de eventos e muito grande (N 1) de modo que N p seja uma constante nita. Ou seja, n = N p 1. Neste caso n ao e dif cil mostrar que a distribui ca o binomial se reduz a: WN (n) = nn n N! . pn (1 p)N n e (N n)!n! n!

Antes de fazermos a demonstra c ao e necess ario apresentarmos uma aproxima ca o para a fun ca o fatorial, conhecida como f ormula de Stirling 2 n! 2n n e
n

(21)

a qual nos permite extender para o cont nuo o dom nio da vari avel discreta n. Fa camos agora a algebra: usando a f ormula de Stirling, vemos que N! N (N n)! N n
N N

N n N n

Nn .

Empregando esta rela ca o e lembrando que p = n/N , podemos escrever WN (n) n Nn n p 1 n! N


N n

Para chegar ao resultado desejado, agora basta apenas lembrar que para a nito, lim 1 a N
N

N
2 Precis ao da f ormula de

= ea ,

Stirling: Denindo s(n) = 2n(n/e)n /n!, podemos nos convencer numericamente da acur acia da aproxima ca o, notando que s(1) 0.90 , s(2) 0.96 , s(5) 0.98 , s(10) 0.99 , etc.

10 e uma das deni co es da fun ca o exponencial. Note que a nova distribui c ao n ao depende separadamente de p e N , mas da ao e a distribui ca o de Poisson: combina ca o a n = N p. Esta express P a ( n) = an a e . n! (22)

Esta distribui ca o tem m ultiplas aplica co es em disversas areas da f sica. Um dos exemplos mais simples e o do decaimento radiativo nuclear. Imagine uma amostra de algumas gramas de um material contendo uma concentra c ao razo avel de n ucleos que decaem espontaneamente com tempo m edio de decaimento (tempo de meia vida) da ordem de semanas. Neste caso dar um tratamento microsc opico ao problema e virtualmente imposs vel, uma vez que o n umero de constituintes do sistema e enorme e a natureza da intera ca o nuclear e complexa. Conclui-se que o tratamente estat stico se faz necess ario. Notemos ent ao que o n umero de n ucleos e grande (N 1), e que no entanto a probabilidade de que um dado n ucleo decaia em um segundo, por exemplo, e baixa (p 1). Destas condi co es vemos que a distribui c ao de Poisson deve ser a mais indicada para descrever o processo. A an alise dos dados mostra que ela o faz com grande sucesso.

1.4. O limite para N

1 e a distribui c ao gaussiana

O objetivo desta sess ao e obter o limite da distribui ca o binomial para N 1, no caso em que n1 = pN 1 e n2 = qN 1. Examinando a Fig. 1.2, podemos esperar que, nestas condi co es, a distribui c ao WN (n1 ) seja centrada em torno de n1 caindo rapidamente para valores de n1 muito diferentes do valor m edio. Mostraremos abaixo que a curva cont nua que melhor ajusta o histograma da Fig. 1.2 e uma gaussiana. Aproximando os fatoriais da distribui c ao binomial WN (n), Eq. (12) pela express ao (21), obtemos N n 2N N p 1 (1 p)N n1 e WN (n1) . n1 N n1 N n1 1 2n1 n 2 ( N n ) 1 e e Explicitando a algebra, mesmo correndo o risco de sermos tediosos, WN (n1) pode ser rearranjado como: WN (n1 ) 1 2N n1 N
n1 1/2

N n1 N

n1 N 1/2

pn1 (1 p)N n1

Para as simplica c oes subseq uentes e necess ario escrever WN (n1 ) como uma exponencial WN (n1 ) = 1 exp 2N 1 1 n1 N n1 (N n1 + ) ln (n1 + ) ln 2 N 2 N +

11 n1 ln p + (N n1 ) ln(1 p) = 1 exp f (n1 ) . 2N (23)

O motivo para fazermos estas manipula co es e que queremos mostrar que (23) pode ser muito bem aproximada por uma gaussiana centrada em n1 , o que implica que f (n1 ) a + b(n1 n1 )2, onde a e b s ao constantes arbitr arias com b < 0. Para determinarmos a e b, e conveniente expandir f (n1 ) em s erie de Taylor em torno de um ponto arbitr ario n1 1 1 f (n1 ) = f (n1 ) + f (n1 )(n1 n1) + f (n1 )(n1 n1)2 + f (n1 )(n1 n1 )3 + 2 6 (24) onde queremos que n1 satisfa ca: d WN (n1 ) dn1 =0
n1 =n1

implica que

f ( n1 )

=0,
n1 =n1

Da ca claro que n1 n1, pois f (n1) = ln n1 N n1 n1 1 1 N 1+ln +ln pln(1p) , + + N 2n1 N 2(N n1 ) N n1 N n1

lembrando que n1 = N p e tomando f (n1 ) em n1 , obtemos f ( n1 )


n1 =n1

pq 0 2N pq

para N 1 (a menos que pq 1, que e o caso do limite de Poisson discutido f no t opico anterior). E acil prosseguir e calcular a segunda e terceira derivadas da fun ca o f (n1 ) f ( n1 ) = n1 d d N n1 1 1 ln f ( n1 ) = + ln + + ln p ln(1 p) dn1 dn1 N 2n1 N 2(N n1 ) 1 1 = + O(N 2) (25) n1 N n1

portanto, para n1 = n1 f ( n1 )
n1 =n1

1 1 1 = . Np N Np N pq

(26)

A derivada terceira e: f ( n1 ) d d f ( n1 ) = dn1 dn1 1 1 n1 N n1 = 1 1 , n2 ( N n1 ) 2 1

12 o que d a f ( n1 )
n1 =n1

1 (p2 q2 ) . (N pq)2

(27)

Note que p 1 e q 1, portanto |q2 p2 | < 1. Disto decorre que: |f ( n 1 ) |


n1 =n1

<

1 N 2p2 q2

|f (n1)|
n1 =n1

(28)

e por isto para N 1, derivadas superiores a f podem ser desprezadas. (A grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que garante a qualidade da aproxima ca o para N 1.) Precisamos ainda calcular f (n1 ) (lembrando novamente que n1 = N p) f ( n1 ) n1 1 1 N n1 = (n1 + ) ln (N n1 + ) ln + n1 ln p + (N n1 ) ln(1 p) 2 N 2 N 1 N Np 1 N Np = N p ln p ln p (N N p) ln ln + 2 N 2 N N p ln p + (N N p) ln(1 p) 1 1 = ln p ln q . (29) 2 2

Reunindo estes resultados cam determinados a e b, de modo que WN (n1 ) 1 1 exp f (n1 ) + f (n1 )(n1 n1 )2 2 2N

obtemos a distribui ca o aproximada WN (n1 ) = 1 ( n1 n1 ) 2 exp 2 2N 2N onde N = N pq . (30)

ilustrada na gura 1.3. Ainda n ao chegamos ` a distribui ca o gaussiana propriamente dita, pois faltanos tirar o limite para uma distribui ca o de vari avel cont nua. Antes de faz e-lo, e bom motivar sicamente o trabalho a ser feito. Como vimos a vari a ncia (` as vezes chamada de dispers ao) escala como N e, juntamente com o valor m edio, determina o intervalo mais prov avel de um evento ocorrer (n1 ). Para N 1, h a muitos valores de n1 neste intervalo ( N ). Dito isto, voltemos ao problema do passeio aleat orio e ao inv es de contar o n umero de passos ` a direita, digamos que o qu e nos interessa e a posi c ao nal: x = (2n1 1 N ) , (31)

onde e o comprimento de cada passo. A distribui c ao desejada pode tomar um n umero muito alto de valores com alta probabilidade, pois N 1. Em geral /x 1, o que nos motiva a simplicar o problema e tomar a vari avel x como

13 cont nua. Resta-nos agora transformar WN (n1 ) em uma distribui ca o P (x) com x cont nuo. Para tal observemos que P (x)dx = WN (n1 ) dx . 2 (32)

Esta rela ca o e simples de vericar gracamente (Fig. 1.3) Figura 1.3

Substituindo (32) em (30) e denindo = (pq)N e = 2 N pq , obtemos: 1 ( x ) 2 P ( x) = exp 22 2 a distribui c ao gaussiana. Examinemos agora propriedades da distribui ca o gaussiana. Primeiro, sua normaliza ca o tem de ser vericada

(33)

dxP (x) =

2 2 1 1 dx e(x) /2 = 2 2

dy ey

/2

=1,

o que e um teste de consist encia para as aproxima co es que zemos a m de obter (33), uma vez que a distribui ca o binomial, nosso ponto de partida, e normalizada. Usando as rela co es do ap endice A, ca f acil de ver que para a distribui c ao gaussiana dada por (33), x = e que a vari ancia x2 = 2 . De fato, e caracterizam completamente a distribui ca o gaussiana.

1.5. Fun c ao caracter stica e o teorema do limite central


comum caracterizarmos uma distribui E c ao por seus momentos. Para isto e muito u til trabalharmos com a fun ca o caracter stica da distribui c ao em quest ao. Ela e dada pela transformada de Fourier da densidade de probabilidade (k) eikx = dx eikxP (x) . (34)

14 Expandindo a fun ca o caracter stica em uma s erie de pot encias em k, obtemos o seguinte resultado ( k ) = = dx P (x) 1 + ikx 1 + ikx i 1 2 2 k x k 3 x3 + 2! 3!

(ik)n xn k2 2 (ik)n n x + + x + = . 2! n! n! n=0

(35)

Alternativamente a densidade de probabilidade e a transformada de Fourier inversa da fun ca o caracter stica. Conhecendo a fun ca o caracter stica, podemos facilmente calcular os momentos de todas as ordens de uma distribui ca o: xn = 1 dn(k) in dkn .
k =0

A utilidade da fun ca o caracter stica ca mais patente quando examinamos um evento que depende de duas ou mais vari aveis aleat orias. Por simplicidade, consideremos inicialmente uma vari avel aleat oria z que seja fun ca o das vari aveis aleat orias x e y, com z = G(x, y). A densidade de probabilidade de z e denida como P3 (z ) = dx dy (z G(x, y))P (x, y) ,

onde P (x, y) e a densidade de probabilidade para a combina ca o de eventos (x, y). Se estes forem independentes, ent ao P (x, y) = P1(x)P2 (y) e ca f acil de ver que a fun c ao caracter stica de P3(z ) 3 ( k ) e expressa por 3 ( k ) = dz eikz dx dy (z G(x, y)) P1 (x)P2(y) = dx dy eikG(x,y)P1(x)P2 (y) . dz eikz P3(z )

Para G(x, y) = x + y 3 ( k ) = dx dy eik(x+y) P1(x)P2(y) = 1(k)2 (k)

ou seja, a fun ca o caracter stica de z e o produto das fun co es caracter sticas de x e y. A aplica ca o mais direta disto e: Consideremos uma vari avel aleat oria x que siga a distribui c ao de probabilidade P (x) com primeiro e segundo momentos respectivamente x e x2. Ent ao fa camos n medidas de x e tomemos a m edia a= 1 ( x1 + x2 + + xn ) . n (36)

15 Qual ser a a distribui ca o Q(a) da vari avel a? O melhor modo de obtermos uma resposta a esta pergunta e calcularmos (k), a fun ca o caracter stica de Q(a): (k) = = = = da eik(ax) Q(a x) ik ( x1 x1 ) + + (xn xn ) n ik ik dx1P (x1) exp (x1 x1) dxnP (xn) exp ( xn xn ) n n n k . (37) n dx1 dxnP (x1) P (xn) exp

Denindo, por consist encia, ( k ) = 1 dxP (x x)eik(xx) = 1 k2 2 + O(k3 ) 2

(conven ca-se disto comparando (35) com a express ao acima), segue que (k) = 1 a qual no limite de n 1 k22 k3 + O 2 n2 n3
n

1, resulta em (k)
n

ek

2 /2n

(38)

Para obtemos Q(a) basta fazer a transformada de Fourier inversa Q(a x) = 1 2

dk eik(ax) (k) ,

a qual e f acilmente efetuada, bastando completar quadrados 2 2 2 n ( a n) dk eik(ax) ek /2n = exp dk exp i 2 2

n/2 k (a x) + 2n

A integral gaussiana e obtida fazendo uma mudan ca de vari aveis e consultando o ap endice A. O resultado e n n ( a x) 2 Q(a x) = (39) exp 2 2 2 o que nos mostra que independente da forma de P (x), a m edia de um grande n umero de x ser a uma gaussiana centrada em x e com desvio padr ao N 1/2 vezes menor do que o desvio padr ao da densidade de probabilidade P (x). O u nico

16 requerimento e de que P (x) tenha momentos nitos. Este resultado e chamado de teorema do limite central.

T opico especial: Equa c ao de Difus ao


Consideremos novamente o problema do passeio aleat orio em uma dimens ao, onde uma vari avel segue a probabilidade condicional T de dar passos de comprimento a cada intervalo de tempo . Se conhecermos: T n1 , (s 1) |n2 , s ) a probabilidade condicional de que uma vari avel estoc astica u ter o valor n2 no s- esimo passo dado que tenha o valor n1 no (s 1)- esimo passo, (40) onde u = 0, 1, 2, d a o valor absoluto da posi ca o da part cula, podemos escrever a equa c ao de evolu ca o temporal para probabilidade de encontrarmos uma part cula na posi c ao n2 como P1 (n2 , s ) =
n1

P1(n1 , (s 1) )T (n1 , (s 1) |n2 , s ) .

(41)

No caso mais simples, correspondendo ao exemplo do jogo de cara ou coroa, a probabilidade de ir ` a esquerda ou direita e igual e, portanto, T n1 , (s 1) |n2 , s = de modo que a Eq.(41) se simplica para: P1 (n , s ) = 1 1 P1((n 1) , (s 1) ) + P1((n + 1) , (s 1) ) 2 2 1 1 n ,n +1 + n2 ,n1 1 2 2 1 2

Para obtermos uma equa ca o diferencial para a distribui ca o de probabilidade, temos que reescrever a equa ca o acima na forma: P1 (n , s ) P1(n , (s 1) ) 1 = P1((n+1) , (s1) )2P1 (n , (s1) )+P1 ((n1) , (s1) ) . 2 Vamos agora escrever x = n e t = s e tomar o limite e 0, de modo que D = 2/2 seja nito. Como resultado obtemos a equa ca o de difus ao P1 (x, t) 2 P1(x, t) . =D t x2 (42)

Podemos resolver de forma f acil a Eq. (42) para o caso especial em que inicialmente P1(x, 0) = (x), onde (x) e a fun ca o delta de Dirac (veja ap endice A). Para tal e conveniente fazer a tranformada de Fourier de P1 (x, t)

P (k, t) =

dxP1(x, t) eikx .

17 Assim, a Eq. (42) assume a forma P (k, t) = Dk2 P1(k, t) , t que podemos imediatamente solucionar, dando P1(k, t) = A eDk
2

onde a constante A e determinada pelas condi co es iniciais do problema. Como P1 (k, 0) = 1, temos que A = 1. Fazendo a transformada de Fourier inversa P1(x, t) = o que nos leva ` a resposta nal
2 1 P1 (x, t) = ex /4Dt . 4Dt

1 2

dkeikxeDk

(43)

Um dos resultados interessantes que podemos obter sem grande esfor co s ao as equa c oes de movimento para os momentos da distribui c ao P1(x, t). O mo mento x(t) dxxP1(x, t) d a a posi ca o m edia da part cula como fun ca o do tempo. Multiplicando a Eq. (42) por x e integrando sobre x, encontramos d x( t ) =D dt

dxx

2P1(x, t) =0 x2

o que nos leva a concluir que a posi ca o m edia da part cula n ao muda com o tempo. Podemos fazer algo muito parecido para x2(t) . Neste caso multiplicamos a Eq. (42) por x2 e integramos sobre a posi c ao, encontrando d x2 ( t ) = 2D dt ou seja x2(t) = 2Dt

o que se constitui numa das caracter sticas mais marcantes de um processo difusivo. O momento x2 (t) e uma medida da largura de P1(x, t) no instante t, a qual se alarga com o tempo, conforme j a esperado.

Sugest oes bibliogr acas


Boa parte dos textos de mec anica estat stica partem do pressuposto de que a teoria de distribui co es e um pr e-requisito para o curso e d ao uma enfase diferente as quest ` oes matem aticas tratadas neste cap tulo. Assim, textos tradicionais costumam ser bastante sint eticos, com a not avel excess ao do livro do Reif [1], o qual recomendo fortemente como leitura suplementar. Boas refer encias para teoria de distribui c oes para f sicos s ao Matthews e Walker [2] e um pouco mais avan cado Hoel [3]. Estudantes com pendores matem aticos que queiram ler um pouco mais sobre teoria erg otica devem consultar o texto de Kinchin [4].

18 1. F. Reif, Fundamentals of Statistical and Thermal Physics (McGraw-Hill Book Co., New York, 1965). 2. J. Matthews e R. L. Walker, Mathematical Methods of Physics (W. A. Benjamin, Menlo Park, 1973) 3. P. G. Hoel, Introduction to Mathematical Statistics (Wiley, New York, 1966). 4. A. I. Kinchin, Mathematical Foundations of Statistical Mechanics (Dover Publications, New York, 1949).

Problemas resolvidos
1. Um recipiente macrosc opico de volume V cont em N mol eculas de um g as ideal em equil brio t ermico. (a) A probabilidade de que uma dada mol ecula esteja numa pequena parte de volume v do recipiente e p = v/V . Qual a fun ca o distribui c ao f (n) que d a a probabilidade de encontrarmos n mol eculas em v? (b) Calcule o n umero m edio de part culas em v como fun ca o de N, v e V (c) Qual a probabilidade de que n ao haja mol ecula alguma em v? Se o ar fosse composto apenas de O2 , qual a probabilidade de nossos pulm oes n ao capturarem mol ecula alguma de O2 em uma aspira c ao t pica (v = 103m3)? Resolu ca o: (a) Se v V , ent ao p = v/V 1, mas num recipiente macrosc opico h a um n umero de mol eculas N 1. Da a distribui ca o que nos d a a probabilidade de encontrarmos n mol eculas em v e a Poisson. P ( n) = an a e n! com a = pN .

(b) O n umero m edio de part culas e n = pN . (c) Nenhuma mol ecula em v corresponde a n = 0 P (0) = ea com a= v N. V

Para o caso em quest ao (veja uma tabela de constantes f sicas!) N/V = 2.4 1025 m3 e v = 103m3. Assim, a = 2.4 1022. Portanto P (0) = exp(2.4 1022) 1. O que nos garante que nestas condi co es e bastante improv avel nos sufocarmos por utua c oes estat sticas.

19 2. O modelo de Drude para metais considera que cada atomo da rede cristalina contribui com um certo n umero de el etrons de val encia, os quais se movem quase livremente dentro do metal. A probabilidade de um el etron sofrer uma colis ao em um intervalo de tempo innitesimal dt e dt/ . (a) Mostre que um el etron escolhido aleatoriamente em um certo instante tem probabilidade et/ de n ao ter sofrido colis ao alguma nos t segundos anteriores. Mostre tamb em que a probabilidade de n ao haver colis ao alguma nos pr oximos t segundos e a mesma. (b) Mostre que a probabilidade de que o intervalo entre duas colis oes sucessivas esteja compreendido entre t e t + dt e (dt/ ) et/ . (c) Mostre que, como conseq u encia, o tempo m edio entre colis oes sucessivas de um el etron e . Resolu ca o: (a) Tomemos um el etron aleat orio no instante t e digamos que a probabilidade de ele n ao ter sofrido colis ao desde t = 0 seja P (t). A probabilidade de que ele continue se propagando livremente at e t + dt e ent ao dada por dt P (t + dt) = (1 )P (t) . Reescrevemos a express ao acima como: dP P (t + dt) P (t) = dt P (t) ou dP dt = . P

Integrando a equa ca o acima em ambos os lados e considerando que P (0) = 1, obtemos o resultado desejado P (t) = et/ . O outro caso do enunciado e deixado para o leitor. (b) O racioc nio e muito parecido com o do item anterior. Agora, queremos que o el etron que propagou livremente at e t (processo com probabilidade P (t)) sofra colis ao entre os intantes t e t + dt (processo com probabilidade dt/ ). Isto d a Pc (t) = dt P (t) ou seja Pc (t) = dt t/ , e

o que nos dene uma probabilidade para a taxa de colis oes dPc/dt. (c) O tempo m edio de colis oes pode ser obtido da integral

t=
0

dt t

dPc = dt

t dt et/

cujo resultado e t = .

20

Problemas propostos
1. Considere a distribui c ao poissoniana Pa (n) = (an /n!) ea (a) Demonstre que a distribui c ao de Poisson e normalizada (b) Calcule o valor m edio da distribui c ao e sua vari ancia. 2. A vari avel aleat oria x obedece ` a distribui ca o de probabilidade f (x) = ex (a) Encontre x ao escolhidos independentemente. Encontre (b) Dois valores x1 e x2 s x1 + x2 e x1 x2 (c) Qual a distribui ca o de probabilidade P (a) da vari avel aleat oria a = (x1 + x2)/2. Sugest ao: Cuidado com os dom nios de integra ca o!) 3. Mostre que a fun ca o caracter stica para a distribui ca o gaussiana e (k) = eikx ek
2

(0 < x < )

2 /2

(Veja que o fator gaussiano em (k) faz com que apenas valores de k da ordem de 1/ sejam importantes, pois (k) e muito pequeno para k 1/. Trace analogia com o princ pio da incerteza!) 4. Em 0.30 mg de 238U temos 7.6 1017 atomos. A probabilidade de que um n ucleo se desintegre por segundo (emitindo uma part cula ) e 4.9 1018. 18 Ent ao, para t = 1s, p = 4.9 10 . Estamos supondo que o decaimento de diferentes atomos n ao seja correlacionado.) (a) Argumente por que a distribui ca o de Poisson e uma boa aproxima ca o para o decaimento estat stico do 238U , supondo que a distribui c ao binomial descreve bem o processo. (b) Escreva a distribui ca o de Poisson que d a a probabilidade de que em 1 s, n n ucleos decaiam e construa o histograma de Pa (n 15). (c) Qual a probabilidade de que em 1 s nenhum atomo decaia? (d) Qual a probabilidade de que em 1 s pelo menos 5 atomos decaiam? 5. No caso da distribui c ao gaussiana o devio padr ao tem um signicado estat stico bem denido. No caso em que P ( x) = 1 ( x ) 2 exp 22 2 ,

(a) Qual a probabilidade de observarmos um evento num intervalo [ , + ]?

21 (b) E em [ 3, + 3]? (Observa ca o: O resultado ser a em termos da fun ca o erro. O valor num erico pode ser obtido consultando uma tabela - recomendo Abramowitz e Stegun, Handbook of Mathematical Functions (Dover, New York).) 6. A teoria estat stica de rea co es nucleares de n ucleo composto, uma sec c ao de choque t pica e dada por
2

(E ) =
i

i i E Ei i 2

onde a soma e feita sobre ress onancias isoladas, cada uma delas correspondendo a uma energia Ei, uma largura partial i e um largura total i . Para o n ucleo composto existe um regime onde as seguintes hip oteses s ao v alidas: (i) todos i s ao reais e iguais ` a constante ; (ii) os i s ao n umeros reais distribuidos aleatoriamente com i = 0
2 = 2 = cte i

(iii) os Ei s ao igualmente espa cados, com espa camento D e (iv) D . (Caso voc e esteja interessado na f sica do problema, consulte K. S. Krane, Introductory Nuclear Physics.) Usando as aproxima c oes acima calcule (E ), 2 (E ) e (E )(E + ) e mostre que (E )
2

2 (E )

1 2

(E ) (E + ) 2 (E )

2 . 2 + 2

You might also like