Professional Documents
Culture Documents
1 0 1 0 00 11 11 00 00 11 00 11 00 11 00 11 1 0 0 1 1 0 1 0 1 0 1 0
l
11 00 00 11 00 11 111 000 000 111 000 111 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 1 0 1 0 0 1 1 0 1 0 1 0 0 1 1 0 1 0
1 0 0 1
1 0 1 0
1 0 1 0
Figure 1: Part cula movendo-se sob a a ca o de centros espalhadores. adamente longo. Voltaremos a esta discuss ao em outras oportunidades mais ` a frente, mas sempre supercialmente. Refer encias bibliogr acas adequadas sobre o assunto est ao listadas no nal do cap tulo. A mensagem que deve car e que e freq uente encontrarmos sistemas cujo comportamento e determin stico, mas que podem ser considerados como dando eventos completamente aleat orios e descorrelacionados. O roteiro deste cap tulo se inicia com uma apresenta ca o dos elementos b asicos da teoria estat stica. Come camos nossa discuss ao com vari aveis discretas, distribui c ao binomial e o exemplo do passeio aleat orio. Passamos ent ao para o limite cont nuo e discutimos a distribui c ao gaussiana e a distribui c ao de Poisson, ambas de grande relev ancia para f sica.
(1)
P ( ui ) = 1 .
i=1
(2)
5 Assim sendo a m edia passa a ser dada pela forma mais simples
M
u=
i=1
P ( ui ) ui .
(3)
Esta deni ca o e facilmente estendida a m edias de fun co es arbitr arias da vari avel u
M
f ( u) =
i=1
P ( ui ) f ( ui ) .
(4)
Por vezes desejamos obter apenas algumas informa co es simples de uma distribui c ao, enquanto que conhecer a fun ca o exata que ajusta tal distribui ca o e uma informa c ao que n ao nos interessa. Nestes casos e interessante se conhecer os primeiros momentos de uma distribui ca o, onde o n- esimo momento e denido como
M
un
i=1
P ( ui ) un i .
(5)
Em primeira inspe ca o, poder amos conjecturar que conhecendo todos os momentos de uma distribui ca o, te-la- amos caracterizado completamente. Infelizmente h a alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por vezes o primeiro e segundo momentos de uma distribui c ao cont em informa ca o suciente para diversas aplica co es f sicas. O primeiro momento nada mais e do que a m edia da distribui ca o, como ca claro ao compararmos a Eq. (3) com a Eq. (5). Muito u til tamb em e a vari ancia, denida como o segundo momento em torno da m edia, ou
M
(u)2 (u u)2 =
i=1
P (ui)(ui u)2 2 ,
(6)
onde e chamado de desvio padr ao. Note que (u u)2 = u2 2uu + u2 = u2 2u u + u2 = u2 u2 , como (u)2 0, ent ao u2 u2 , (7) comum usar-se tamb garantindo que a vari ancia e sempre positiva ou nula. E em 2 u para denotar a vari ancia no que segue daremos prefer encia a esta u ltima nota ca o. A maioria dos problemas f sicos a serem considerados neste curso envolvem vari aveis estoc asticas cont nuas e n ao as discretas, descritas acima. Para tratarmos tais problemas, os conceitos acima apresentados precisam ser estendidos. Como acima, tamb em quando trabalhamos com uma vari avel estoc astica cont nua x, a quantidade estat stica central de interesse e a distribui c ao P (x). Neste caso,
6 a probabilidade de que o resultado de uma medida de x esteja entre os valores aeb e dada por:
b
P (a x b) =
a
dx P (x) .
(8)
Esta deni ca o e tamb em a justicativa para chamarmos P (x) de densidade de probabilidade. A igualdade acima e v alida para P (x) normalizados a unidade dx P (x) = 1 ,
D
onde a integra ca o e feita sobre todo o dom nio D da densidade de probabilidade. Estas considera co es nos levam imediatamente ` a generaliza ca o dos momentos de uma distribui c ao. A deni ca o agora passa a ser xn =
D
dx xn P (x) .
Esta rela ca o ser a muito utilizada nos cap tulos que se seguem.
A probabilidade de uma seq u encia de n1 passos para a direita e n2 passos para a esquerda e dada pelo produto p p
n1
q q
n2 vezes
= pn1 qn2 .
(10)
H a, no entanto, para um total de N passos v arias seq u encias distintas compostas de n1 passos ` a direita e n2 passos ` a esquerda. O n umero total de seq u encias distintas C corresponde ao n umero de permuta co es na ordem em que os passos s ao dados para a direita e para a esquerda. Este n umero e
C=
N! . n 1 !n 2 !
(11)
Ent ao a probabilidade de tomarmos n1 passos ` a direita (ou n2 = N n1 ` a esquerda) em qualquer ordem e obtida multiplicando a probabilidade pelo n umero de caminhos poss veis. WN (n1 ) = N ! n1 n2 p q . n 1 !n 2 ! (12)
Esta e a distribui c ao binomial. 1 Como n1 e N determinam a posi ca o m, pois n1 = (N + m)/2 e n2 = (N m)/2, podemos traduzir WN (n1) em PN (m) P N ( m) = N! (N + m)/2 ! (N m)/2 ! Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N = 20 vezes. A probabilidade de obtermos cara e p = 1/2 (an alogo ao ir para a direita ou esquerda com p = 1/2 no problema do passeio aleat orio) e coroa tem probabilidade q = 1 1/2 = 1/2. Figura 1.2. p(N +m)/2 (1 p)(N m)/2 . (13)
A gura acima traduz muito bem o resultado intuitivo de que jogando N = 20 vezes, o resultado mais prov avel e que tenhamos 10 eventos cara (n1 = 10). Para n1 = 10, W20 (n1) tem seu m aximo e nos d a o resultado importante notar que resultados muito diferentes de n1 = 10 mais prov avel. E s ao pouco prov aveis, ou seja |n1 10| 1, W20 (n1 ) 0. Voltemos ao problema do passeio aleat orio para estudarmos o valor m edio e a vari ancia. O n umero m edio de passos ` a direita e obtido usando as Eqs.(3) e(12)
N N
n1 =
n1 =0
1 Aqui
WN (n1) n1 =
n1
N! pn1 qN n1 n1 . n !( N n1)! =0 1
N n=0
(14)
N !/(n!(N
n)!)pn qN n .
8 Atrav es do m etodo da for ca bruta podemos calcular n1 atrav es dos seguintes passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o cuidado de alterar o somat orio
N
n1 =
n1
N! pn1 qN n1 , ( n 1)!( N n )! 1 1 =1
em seguida, fazendo a mudan ca de vari aveis n = n1 1, obtemos uma nova distribui ca o binomial em n
N 1
n1 =
n =0
N! pn +1 qN 1n = N p n !(N 1 n )!
N 1
n =0
(N 1)! pn qN 1n . n !(N 1 n )!
Este resultado j a era previs vel antes mesmo de fazermos as contas, pois a m edia de passos para a esquerda nada mais e do que o n umero total de passos N vezes a probabilidade p de ir para a esquerda a cada passo. Um modo mais elegante de obtermos este resultado e observarmos que n1pn1 = p n1 (p ) . p
WN (n1) = p
n1 =0
(p + q )N = p N . p
(16)
Este truque torna f acil a tarefa de calcular o segundo momento n2 i (tente o m etodo direto, e conven ca-se de que este e bastante trabalhoso!)
N N 2
n2 1
n1
N! pn1 qN n1 n2 1 = n !( N n )! 1 1 =0 n
2
N! n !( N n1 )! 1 =0
pn1 qN n1
p p
(p + q )N .
(17)
Desta equa ca o, operando as derivadas e ap os algumas manipula c oes alg ebricas, obtemos 2 n2 (18) 1 = (N p) + N pq , o que nos leva ao resultado nal para a vari ancia
2 n2 1 (n1 n1 ) = N pq .
(19)
9 A vari ancia envolve quadrados de n1 e uma boa estimativa da vari ancia t pica vem de n2 N pq q 1 n2 1 1 1 = . = ou (20) n1 Np p N n1 N A express ao (20) implica ao dividido pelo que com N crescente o desvio padr valor m edio cai com 1/ N . Este quociente e um bom par ametro para uma estimativa do intervalo de conabilidade (ou erro) de um experimento, como por exemplo N jogos de cara ou coroa.
Antes de fazermos a demonstra c ao e necess ario apresentarmos uma aproxima ca o para a fun ca o fatorial, conhecida como f ormula de Stirling 2 n! 2n n e
n
(21)
a qual nos permite extender para o cont nuo o dom nio da vari avel discreta n. Fa camos agora a algebra: usando a f ormula de Stirling, vemos que N! N (N n)! N n
N N
N n N n
Nn .
Para chegar ao resultado desejado, agora basta apenas lembrar que para a nito, lim 1 a N
N
N
2 Precis ao da f ormula de
= ea ,
Stirling: Denindo s(n) = 2n(n/e)n /n!, podemos nos convencer numericamente da acur acia da aproxima ca o, notando que s(1) 0.90 , s(2) 0.96 , s(5) 0.98 , s(10) 0.99 , etc.
10 e uma das deni co es da fun ca o exponencial. Note que a nova distribui c ao n ao depende separadamente de p e N , mas da ao e a distribui ca o de Poisson: combina ca o a n = N p. Esta express P a ( n) = an a e . n! (22)
Esta distribui ca o tem m ultiplas aplica co es em disversas areas da f sica. Um dos exemplos mais simples e o do decaimento radiativo nuclear. Imagine uma amostra de algumas gramas de um material contendo uma concentra c ao razo avel de n ucleos que decaem espontaneamente com tempo m edio de decaimento (tempo de meia vida) da ordem de semanas. Neste caso dar um tratamento microsc opico ao problema e virtualmente imposs vel, uma vez que o n umero de constituintes do sistema e enorme e a natureza da intera ca o nuclear e complexa. Conclui-se que o tratamente estat stico se faz necess ario. Notemos ent ao que o n umero de n ucleos e grande (N 1), e que no entanto a probabilidade de que um dado n ucleo decaia em um segundo, por exemplo, e baixa (p 1). Destas condi co es vemos que a distribui c ao de Poisson deve ser a mais indicada para descrever o processo. A an alise dos dados mostra que ela o faz com grande sucesso.
1 e a distribui c ao gaussiana
O objetivo desta sess ao e obter o limite da distribui ca o binomial para N 1, no caso em que n1 = pN 1 e n2 = qN 1. Examinando a Fig. 1.2, podemos esperar que, nestas condi co es, a distribui c ao WN (n1 ) seja centrada em torno de n1 caindo rapidamente para valores de n1 muito diferentes do valor m edio. Mostraremos abaixo que a curva cont nua que melhor ajusta o histograma da Fig. 1.2 e uma gaussiana. Aproximando os fatoriais da distribui c ao binomial WN (n), Eq. (12) pela express ao (21), obtemos N n 2N N p 1 (1 p)N n1 e WN (n1) . n1 N n1 N n1 1 2n1 n 2 ( N n ) 1 e e Explicitando a algebra, mesmo correndo o risco de sermos tediosos, WN (n1) pode ser rearranjado como: WN (n1 ) 1 2N n1 N
n1 1/2
N n1 N
n1 N 1/2
pn1 (1 p)N n1
Para as simplica c oes subseq uentes e necess ario escrever WN (n1 ) como uma exponencial WN (n1 ) = 1 exp 2N 1 1 n1 N n1 (N n1 + ) ln (n1 + ) ln 2 N 2 N +
O motivo para fazermos estas manipula co es e que queremos mostrar que (23) pode ser muito bem aproximada por uma gaussiana centrada em n1 , o que implica que f (n1 ) a + b(n1 n1 )2, onde a e b s ao constantes arbitr arias com b < 0. Para determinarmos a e b, e conveniente expandir f (n1 ) em s erie de Taylor em torno de um ponto arbitr ario n1 1 1 f (n1 ) = f (n1 ) + f (n1 )(n1 n1) + f (n1 )(n1 n1)2 + f (n1 )(n1 n1 )3 + 2 6 (24) onde queremos que n1 satisfa ca: d WN (n1 ) dn1 =0
n1 =n1
implica que
f ( n1 )
=0,
n1 =n1
Da ca claro que n1 n1, pois f (n1) = ln n1 N n1 n1 1 1 N 1+ln +ln pln(1p) , + + N 2n1 N 2(N n1 ) N n1 N n1
pq 0 2N pq
para N 1 (a menos que pq 1, que e o caso do limite de Poisson discutido f no t opico anterior). E acil prosseguir e calcular a segunda e terceira derivadas da fun ca o f (n1 ) f ( n1 ) = n1 d d N n1 1 1 ln f ( n1 ) = + ln + + ln p ln(1 p) dn1 dn1 N 2n1 N 2(N n1 ) 1 1 = + O(N 2) (25) n1 N n1
portanto, para n1 = n1 f ( n1 )
n1 =n1
1 1 1 = . Np N Np N pq
(26)
12 o que d a f ( n1 )
n1 =n1
1 (p2 q2 ) . (N pq)2
(27)
<
1 N 2p2 q2
|f (n1)|
n1 =n1
(28)
e por isto para N 1, derivadas superiores a f podem ser desprezadas. (A grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que garante a qualidade da aproxima ca o para N 1.) Precisamos ainda calcular f (n1 ) (lembrando novamente que n1 = N p) f ( n1 ) n1 1 1 N n1 = (n1 + ) ln (N n1 + ) ln + n1 ln p + (N n1 ) ln(1 p) 2 N 2 N 1 N Np 1 N Np = N p ln p ln p (N N p) ln ln + 2 N 2 N N p ln p + (N N p) ln(1 p) 1 1 = ln p ln q . (29) 2 2
Reunindo estes resultados cam determinados a e b, de modo que WN (n1 ) 1 1 exp f (n1 ) + f (n1 )(n1 n1 )2 2 2N
ilustrada na gura 1.3. Ainda n ao chegamos ` a distribui ca o gaussiana propriamente dita, pois faltanos tirar o limite para uma distribui ca o de vari avel cont nua. Antes de faz e-lo, e bom motivar sicamente o trabalho a ser feito. Como vimos a vari a ncia (` as vezes chamada de dispers ao) escala como N e, juntamente com o valor m edio, determina o intervalo mais prov avel de um evento ocorrer (n1 ). Para N 1, h a muitos valores de n1 neste intervalo ( N ). Dito isto, voltemos ao problema do passeio aleat orio e ao inv es de contar o n umero de passos ` a direita, digamos que o qu e nos interessa e a posi c ao nal: x = (2n1 1 N ) , (31)
onde e o comprimento de cada passo. A distribui c ao desejada pode tomar um n umero muito alto de valores com alta probabilidade, pois N 1. Em geral /x 1, o que nos motiva a simplicar o problema e tomar a vari avel x como
13 cont nua. Resta-nos agora transformar WN (n1 ) em uma distribui ca o P (x) com x cont nuo. Para tal observemos que P (x)dx = WN (n1 ) dx . 2 (32)
Substituindo (32) em (30) e denindo = (pq)N e = 2 N pq , obtemos: 1 ( x ) 2 P ( x) = exp 22 2 a distribui c ao gaussiana. Examinemos agora propriedades da distribui ca o gaussiana. Primeiro, sua normaliza ca o tem de ser vericada
(33)
dxP (x) =
2 2 1 1 dx e(x) /2 = 2 2
dy ey
/2
=1,
o que e um teste de consist encia para as aproxima co es que zemos a m de obter (33), uma vez que a distribui ca o binomial, nosso ponto de partida, e normalizada. Usando as rela co es do ap endice A, ca f acil de ver que para a distribui c ao gaussiana dada por (33), x = e que a vari ancia x2 = 2 . De fato, e caracterizam completamente a distribui ca o gaussiana.
14 Expandindo a fun ca o caracter stica em uma s erie de pot encias em k, obtemos o seguinte resultado ( k ) = = dx P (x) 1 + ikx 1 + ikx i 1 2 2 k x k 3 x3 + 2! 3!
(35)
Alternativamente a densidade de probabilidade e a transformada de Fourier inversa da fun ca o caracter stica. Conhecendo a fun ca o caracter stica, podemos facilmente calcular os momentos de todas as ordens de uma distribui ca o: xn = 1 dn(k) in dkn .
k =0
A utilidade da fun ca o caracter stica ca mais patente quando examinamos um evento que depende de duas ou mais vari aveis aleat orias. Por simplicidade, consideremos inicialmente uma vari avel aleat oria z que seja fun ca o das vari aveis aleat orias x e y, com z = G(x, y). A densidade de probabilidade de z e denida como P3 (z ) = dx dy (z G(x, y))P (x, y) ,
onde P (x, y) e a densidade de probabilidade para a combina ca o de eventos (x, y). Se estes forem independentes, ent ao P (x, y) = P1(x)P2 (y) e ca f acil de ver que a fun c ao caracter stica de P3(z ) 3 ( k ) e expressa por 3 ( k ) = dz eikz dx dy (z G(x, y)) P1 (x)P2(y) = dx dy eikG(x,y)P1(x)P2 (y) . dz eikz P3(z )
ou seja, a fun ca o caracter stica de z e o produto das fun co es caracter sticas de x e y. A aplica ca o mais direta disto e: Consideremos uma vari avel aleat oria x que siga a distribui c ao de probabilidade P (x) com primeiro e segundo momentos respectivamente x e x2. Ent ao fa camos n medidas de x e tomemos a m edia a= 1 ( x1 + x2 + + xn ) . n (36)
15 Qual ser a a distribui ca o Q(a) da vari avel a? O melhor modo de obtermos uma resposta a esta pergunta e calcularmos (k), a fun ca o caracter stica de Q(a): (k) = = = = da eik(ax) Q(a x) ik ( x1 x1 ) + + (xn xn ) n ik ik dx1P (x1) exp (x1 x1) dxnP (xn) exp ( xn xn ) n n n k . (37) n dx1 dxnP (x1) P (xn) exp
(conven ca-se disto comparando (35) com a express ao acima), segue que (k) = 1 a qual no limite de n 1 k22 k3 + O 2 n2 n3
n
1, resulta em (k)
n
ek
2 /2n
(38)
dk eik(ax) (k) ,
a qual e f acilmente efetuada, bastando completar quadrados 2 2 2 n ( a n) dk eik(ax) ek /2n = exp dk exp i 2 2
n/2 k (a x) + 2n
A integral gaussiana e obtida fazendo uma mudan ca de vari aveis e consultando o ap endice A. O resultado e n n ( a x) 2 Q(a x) = (39) exp 2 2 2 o que nos mostra que independente da forma de P (x), a m edia de um grande n umero de x ser a uma gaussiana centrada em x e com desvio padr ao N 1/2 vezes menor do que o desvio padr ao da densidade de probabilidade P (x). O u nico
16 requerimento e de que P (x) tenha momentos nitos. Este resultado e chamado de teorema do limite central.
(41)
No caso mais simples, correspondendo ao exemplo do jogo de cara ou coroa, a probabilidade de ir ` a esquerda ou direita e igual e, portanto, T n1 , (s 1) |n2 , s = de modo que a Eq.(41) se simplica para: P1 (n , s ) = 1 1 P1((n 1) , (s 1) ) + P1((n + 1) , (s 1) ) 2 2 1 1 n ,n +1 + n2 ,n1 1 2 2 1 2
Para obtermos uma equa ca o diferencial para a distribui ca o de probabilidade, temos que reescrever a equa ca o acima na forma: P1 (n , s ) P1(n , (s 1) ) 1 = P1((n+1) , (s1) )2P1 (n , (s1) )+P1 ((n1) , (s1) ) . 2 Vamos agora escrever x = n e t = s e tomar o limite e 0, de modo que D = 2/2 seja nito. Como resultado obtemos a equa ca o de difus ao P1 (x, t) 2 P1(x, t) . =D t x2 (42)
Podemos resolver de forma f acil a Eq. (42) para o caso especial em que inicialmente P1(x, 0) = (x), onde (x) e a fun ca o delta de Dirac (veja ap endice A). Para tal e conveniente fazer a tranformada de Fourier de P1 (x, t)
P (k, t) =
dxP1(x, t) eikx .
17 Assim, a Eq. (42) assume a forma P (k, t) = Dk2 P1(k, t) , t que podemos imediatamente solucionar, dando P1(k, t) = A eDk
2
onde a constante A e determinada pelas condi co es iniciais do problema. Como P1 (k, 0) = 1, temos que A = 1. Fazendo a transformada de Fourier inversa P1(x, t) = o que nos leva ` a resposta nal
2 1 P1 (x, t) = ex /4Dt . 4Dt
1 2
dkeikxeDk
(43)
Um dos resultados interessantes que podemos obter sem grande esfor co s ao as equa c oes de movimento para os momentos da distribui c ao P1(x, t). O mo mento x(t) dxxP1(x, t) d a a posi ca o m edia da part cula como fun ca o do tempo. Multiplicando a Eq. (42) por x e integrando sobre x, encontramos d x( t ) =D dt
dxx
2P1(x, t) =0 x2
o que nos leva a concluir que a posi ca o m edia da part cula n ao muda com o tempo. Podemos fazer algo muito parecido para x2(t) . Neste caso multiplicamos a Eq. (42) por x2 e integramos sobre a posi c ao, encontrando d x2 ( t ) = 2D dt ou seja x2(t) = 2Dt
o que se constitui numa das caracter sticas mais marcantes de um processo difusivo. O momento x2 (t) e uma medida da largura de P1(x, t) no instante t, a qual se alarga com o tempo, conforme j a esperado.
18 1. F. Reif, Fundamentals of Statistical and Thermal Physics (McGraw-Hill Book Co., New York, 1965). 2. J. Matthews e R. L. Walker, Mathematical Methods of Physics (W. A. Benjamin, Menlo Park, 1973) 3. P. G. Hoel, Introduction to Mathematical Statistics (Wiley, New York, 1966). 4. A. I. Kinchin, Mathematical Foundations of Statistical Mechanics (Dover Publications, New York, 1949).
Problemas resolvidos
1. Um recipiente macrosc opico de volume V cont em N mol eculas de um g as ideal em equil brio t ermico. (a) A probabilidade de que uma dada mol ecula esteja numa pequena parte de volume v do recipiente e p = v/V . Qual a fun ca o distribui c ao f (n) que d a a probabilidade de encontrarmos n mol eculas em v? (b) Calcule o n umero m edio de part culas em v como fun ca o de N, v e V (c) Qual a probabilidade de que n ao haja mol ecula alguma em v? Se o ar fosse composto apenas de O2 , qual a probabilidade de nossos pulm oes n ao capturarem mol ecula alguma de O2 em uma aspira c ao t pica (v = 103m3)? Resolu ca o: (a) Se v V , ent ao p = v/V 1, mas num recipiente macrosc opico h a um n umero de mol eculas N 1. Da a distribui ca o que nos d a a probabilidade de encontrarmos n mol eculas em v e a Poisson. P ( n) = an a e n! com a = pN .
(b) O n umero m edio de part culas e n = pN . (c) Nenhuma mol ecula em v corresponde a n = 0 P (0) = ea com a= v N. V
Para o caso em quest ao (veja uma tabela de constantes f sicas!) N/V = 2.4 1025 m3 e v = 103m3. Assim, a = 2.4 1022. Portanto P (0) = exp(2.4 1022) 1. O que nos garante que nestas condi co es e bastante improv avel nos sufocarmos por utua c oes estat sticas.
19 2. O modelo de Drude para metais considera que cada atomo da rede cristalina contribui com um certo n umero de el etrons de val encia, os quais se movem quase livremente dentro do metal. A probabilidade de um el etron sofrer uma colis ao em um intervalo de tempo innitesimal dt e dt/ . (a) Mostre que um el etron escolhido aleatoriamente em um certo instante tem probabilidade et/ de n ao ter sofrido colis ao alguma nos t segundos anteriores. Mostre tamb em que a probabilidade de n ao haver colis ao alguma nos pr oximos t segundos e a mesma. (b) Mostre que a probabilidade de que o intervalo entre duas colis oes sucessivas esteja compreendido entre t e t + dt e (dt/ ) et/ . (c) Mostre que, como conseq u encia, o tempo m edio entre colis oes sucessivas de um el etron e . Resolu ca o: (a) Tomemos um el etron aleat orio no instante t e digamos que a probabilidade de ele n ao ter sofrido colis ao desde t = 0 seja P (t). A probabilidade de que ele continue se propagando livremente at e t + dt e ent ao dada por dt P (t + dt) = (1 )P (t) . Reescrevemos a express ao acima como: dP P (t + dt) P (t) = dt P (t) ou dP dt = . P
Integrando a equa ca o acima em ambos os lados e considerando que P (0) = 1, obtemos o resultado desejado P (t) = et/ . O outro caso do enunciado e deixado para o leitor. (b) O racioc nio e muito parecido com o do item anterior. Agora, queremos que o el etron que propagou livremente at e t (processo com probabilidade P (t)) sofra colis ao entre os intantes t e t + dt (processo com probabilidade dt/ ). Isto d a Pc (t) = dt P (t) ou seja Pc (t) = dt t/ , e
o que nos dene uma probabilidade para a taxa de colis oes dPc/dt. (c) O tempo m edio de colis oes pode ser obtido da integral
t=
0
dt t
dPc = dt
t dt et/
cujo resultado e t = .
20
Problemas propostos
1. Considere a distribui c ao poissoniana Pa (n) = (an /n!) ea (a) Demonstre que a distribui c ao de Poisson e normalizada (b) Calcule o valor m edio da distribui c ao e sua vari ancia. 2. A vari avel aleat oria x obedece ` a distribui ca o de probabilidade f (x) = ex (a) Encontre x ao escolhidos independentemente. Encontre (b) Dois valores x1 e x2 s x1 + x2 e x1 x2 (c) Qual a distribui ca o de probabilidade P (a) da vari avel aleat oria a = (x1 + x2)/2. Sugest ao: Cuidado com os dom nios de integra ca o!) 3. Mostre que a fun ca o caracter stica para a distribui ca o gaussiana e (k) = eikx ek
2
(0 < x < )
2 /2
(Veja que o fator gaussiano em (k) faz com que apenas valores de k da ordem de 1/ sejam importantes, pois (k) e muito pequeno para k 1/. Trace analogia com o princ pio da incerteza!) 4. Em 0.30 mg de 238U temos 7.6 1017 atomos. A probabilidade de que um n ucleo se desintegre por segundo (emitindo uma part cula ) e 4.9 1018. 18 Ent ao, para t = 1s, p = 4.9 10 . Estamos supondo que o decaimento de diferentes atomos n ao seja correlacionado.) (a) Argumente por que a distribui ca o de Poisson e uma boa aproxima ca o para o decaimento estat stico do 238U , supondo que a distribui c ao binomial descreve bem o processo. (b) Escreva a distribui ca o de Poisson que d a a probabilidade de que em 1 s, n n ucleos decaiam e construa o histograma de Pa (n 15). (c) Qual a probabilidade de que em 1 s nenhum atomo decaia? (d) Qual a probabilidade de que em 1 s pelo menos 5 atomos decaiam? 5. No caso da distribui c ao gaussiana o devio padr ao tem um signicado estat stico bem denido. No caso em que P ( x) = 1 ( x ) 2 exp 22 2 ,
21 (b) E em [ 3, + 3]? (Observa ca o: O resultado ser a em termos da fun ca o erro. O valor num erico pode ser obtido consultando uma tabela - recomendo Abramowitz e Stegun, Handbook of Mathematical Functions (Dover, New York).) 6. A teoria estat stica de rea co es nucleares de n ucleo composto, uma sec c ao de choque t pica e dada por
2
(E ) =
i
i i E Ei i 2
onde a soma e feita sobre ress onancias isoladas, cada uma delas correspondendo a uma energia Ei, uma largura partial i e um largura total i . Para o n ucleo composto existe um regime onde as seguintes hip oteses s ao v alidas: (i) todos i s ao reais e iguais ` a constante ; (ii) os i s ao n umeros reais distribuidos aleatoriamente com i = 0
2 = 2 = cte i
(iii) os Ei s ao igualmente espa cados, com espa camento D e (iv) D . (Caso voc e esteja interessado na f sica do problema, consulte K. S. Krane, Introductory Nuclear Physics.) Usando as aproxima c oes acima calcule (E ), 2 (E ) e (E )(E + ) e mostre que (E )
2
2 (E )
1 2
(E ) (E + ) 2 (E )
2 . 2 + 2