Professional Documents
Culture Documents
por
Maximiliano Baldiviezo
Agosto de 2013
Mecánica Estadı́stica
Departamento de Fı́sica
Facultad de Ciencias Exáctas
Universidad Nacional de Salta
Índice de contenidos
I. ELEMENTOS DE PROBABILIDAD 1
I. Teorı́a clásica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I1. Técnicas de conteo. . . . . . . . . . . . . . . . . . . . . . . . . . 2
II. Teorı́a frecuentı́sta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III. Teorı́a axiomática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
III1. Axiomas de Kolmogorov. . . . . . . . . . . . . . . . . . . . . . . 7
III2. El lenguaje de la teorı́a axiomática. . . . . . . . . . . . . . . . . 8
III3. Corolarios inmediatos de los axiomas de Kolmogorov. . . . . . . 9
III4. Probabilidad condicionada, teorema de Bayes e independencia
estadı́stica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
III5. Variable aleatoria: densidad de probabilidad. . . . . . . . . . . . 12
III6. Transformación de variables aleatorias. . . . . . . . . . . . . . . 13
IV. La teorı́a axiomática y su relación con los datos experimentales. . . . . 15
V. Función Caracterı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
V1. Definición de Función Caracterı́stica. . . . . . . . . . . . . . . . 17
V2. Random Walk. . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V3. Función de función caracterı́stica. . . . . . . . . . . . . . . . . . 22
V4. Teorema central del lı́mite. . . . . . . . . . . . . . . . . . . . . . 24
VI. Entropı́a probabilista: una medida de falta de información. . . . . . . . 27
VI1. Falta de información. . . . . . . . . . . . . . . . . . . . . . . . . 27
VI2. Entropı́a estadı́stica. . . . . . . . . . . . . . . . . . . . . . . . . 29
iii
MECÁNICA ESTADÍSTICA 2013
ELEMENTOS DE PROBABILIDAD
I. Teorı́a clásica.
La idea de probabilidad nace relativamente tarde en la historia del conocimien-
to. Paradójicamente, las primeras aproximaciones al cálculo de probabilidades fueron
impulsadas no por problemas cientı́ficos sino por intereses esencialmente prácticos. El
matemático y filósofo Blaise Pascal fue animado a reflexionar sobre el concepto de pro-
babilidad por un amigo suyo, el caballero Méré, que era un aficionado a los juegos de
azar. La definición matemática propuesta por Pascal (denominada definición clásica),
nació como una obvia generalización de situaciones que se verifican en el juego. La
primera teorı́a de la probabilidad, actualmente denominada teorı́a clásica, fue elabora-
da durante el siglo XVIII. Jacob Bernoulli (1654-1705) fue el primero que escribió un
tratado sistemático sobre ella; y también el Reverendo Thomas Bayes hizo una impor-
tante contribución a la misma. A fines del mismo siglo, el gran matemático y fı́sico
Pierre Simon de Laplace escribió el primer gran tratado sobre el tema. Contenı́a una
vasta elaboración matemática de una teorı́a de la probabilidad y puede ser considerada
como la obra cumbre del perı́odo clásico. Todo lo realizado hasta ese momento de la
historia tenı́a como pilar la siguiente definición de probabilidad:
1
2 ELEMENTOS DE PROBABILIDAD
En principio, la definición de una r-muestra no dice nada sobre orden de sus elemen-
tos ya que simplemente está caracterizada por los elementos que la componen. Surge
de esta manera la necesidad de clasificar los tipos de muestras de un n-conjunto según
se tenga o no en cuenta el orden de sus elementos.
Con la intención de discernir el orden de los elementos de una r-muestra, vamos a
definir una r-permutación asociada al n-conjunto An como un arreglo ordenado de
r elementos de An :
Ası́, por ejemplo, las combinaciones C [A15 , 3] ≡ [c1 , c2 , c3 ] = [a5 , a7 , a13 ] y D [A15 , 3] ≡
[d1 , d2 , d3 ] = [a13 , a7 , a5 ] son iguales, por tratarse de los mismos elementos. Mientras que
las permutaciones P (A15 , 3) ≡ (p1 , p2 , p3 ) = (a5 , a7 , a13 ) y Q (A15 , 3) ≡ (q1 , q2 , q3 ) =
(a13 , a7 , a5 ) son diferentes a pesar de estar formadas por los mismos elementos ya que
el orden en que están dispuestos difiere.
I Teorı́a clásica. 3
n!
Pnr = n (n − 1) · · · (n − r + 1) = ,
(n − r)!
4 ELEMENTOS DE PROBABILIDAD
y por lo tanto
n!
Cnr = .
r! (n − r)!
Una caracterı́stica interesante de la r-combinaciones sin repetición es que el número
total de ellas coincide con el número total de r-subconjuntos del n-conjunto en cuestión.
Ahora consideremos situaciones en las que una r-muestra con repetición. Para for-
mar una r-permutación tendremos n posibilidades para el primer elemento, por cada
una de ellas tendremos otras n posibilidades para el segundo elemento y ası́ sucesiva-
mente para los restantes. De esta manera el número de r-permutaciones con repetición
está dado por:
P Rnr = nr .
(n + r − 1)!
CRnr = Cn+r−1
r
= .
r! (n − 1)!
Ejercicio I.1 Una urna contiene 5 bolillas numeradas del 1 al 5. Se sacan sucesivamente al
azar las 5 bolillas (sin reposición) ¿Cuál es la probabilidad de que juntando los números de
cada bolilla según el orden de extracción resulte el número 21345?
Ejercicio I.2 Una urna contiene 10 bolillas numeradas del 0 al 9. Se sacan sucesivamente
al azar 5 bolillas (sin reposición) ¿Cuál es la probabilidad de que juntando los números de
cada bolilla según el orden de extracción resulte el número 80314?
I Teorı́a clásica. 5
Ejercicio I.3 Una urna contiene a bolillas blancas y b bolillas negras. Al sacar al azar
r bolillas de una vez (suponiendo r ≤ a) ¿cuál es la probabilidad de que todas ellas sean
blancas?
Ejercicio I.4 Se tienen 5 pares de zapatos mezclados y cada par es distinto de los demás.
Si se eligen dos zapatos al azar, ¿qué probabilidad hay de que correspondan al mismo par?
Ejercicio I.5 Se tiene una baraja de 40 cartas, donde hay 4 ases. Se reparten entre 4
personas, de manera que cada uno tenga 10 cartas, ¿cuál es la probabilidad de que a cada
uno le toque un as?
Ejercicio I.6 Si n personas se sientan al azar en una fila, ¿cuál es la probabilidad de que
dos de ellas queden una al lado de la otra?
Ejercicio I.7 Se elige al azar un número de 6 cifras. Hallar la probabilidad de que todas
las cifras sean diferentes.
Ejercicio I.8 En una urna hay 20 bolillas numeradas del 1 al 20. Si se van sacando al azar
una a una sin reposición ¿cuál es la probabilidad de que la bolilla número 8 salga precisamente
en la octava extracción?
Ejercicio I.9 De un grupo de 6 mujeres y 4 hombres se deben elegir 3 personas para que
los representen en 3 congresos a desarrollarse en mayo, junio y setiembre.
2. Suponiendo que una persona puede ir a más de un congreso, calcular las mismas pro-
babilidades que en el inciso 1.
3. Con la misma hipótesis que en el inciso 1 y suponiendo que lo único que importa es
elegir a las tres personas que irán a los congresos, sin importar a cuál de ellas, calcular
las probabilidades del inciso 1 que tengan sentido para este experimento.
Ejercicio I.12 Considere una idealización de un cristal que contiene N sitios del tipo A,
el mismo número de sitios del tipo B (defectos) y N átomos en total. Suponga que hay n
átomos en sitios del tipo B. Determine el número total de formas de acomodar los N átomos
en el cristal bajo estas condiciones.
Ejercicio I.13 Considere una superficie con Ns sitios. En estos sitios pueden absorberse
moléculas de dos tipos diferentes. Suponga que en la superficie hay absorbidas nA moléculas
del tipo A y nB moléculas del tipo B. Determine el número total de configuraciones posibles.
pruebas, y de esta manera extraer una sucesión de frecuencias relativas con denomi-
nador creciente, del tipo:
m1 m2 m3 m4
, , , , ...
n1 n2 n3 n4
con n1 < n2 < n3 < n4 < ... Ası́, haciendo crecer indefinidamente el denominador,
la sucesión tiende a un valor fijo de la frecuencia relativa. Sobre esta base, Mises y
Reichenbach postulan la siguiente definición de probabilidad:
1
Axioma I.1 F es un campo de conjuntos.
Axioma I.3 Cada evento A perteneciente a F tiene asociado un número real positivo
P (A). El número P (A) se denomina probabilidad del evento A.
P (A ∪ B) = P (A) + P (B).
Definición I.3 Si A∩B = ∅, diremos que los eventos A y B son excluyentes, es decir,
no pueden ocurrir simultáneamente.
1. P (A) = 1 − P (A)
e
2. 0 ≤ P (A) ≤ 1.
Demostración. Como A ∪ A
e=S y A∩A
e = ∅, por el Axioma I.5 resulta
P (S) = P (A ∪ A)
e = P (A) + P (A)
e
y como por el Axioma I.4 P (S) = 1, resulta directamente que P (A) = 1 − P (A). e
Finalmente, por el Axioma I.3 P (A) ≥ 0 y P (A)
e ≥ 0 y por lo tanto, es fácil ver que
0 ≤ P (A) ≤ 1.
P (B) = P (B/A) + P (A ∩ B) .
P (A ∪ B) = P (A/B) + P (A ∩ B) + P (B/A) .
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) .
Teorema I.1 (Teorema de Bayes) Sean dos eventos A y B, entonces sus probabi-
lidades condicionadas cumplen la siguiente relación:
P (B|A)P (A)
P (A|B) = .
P (B)
P (A ∩ B)
P (A|B) = ,
P (B)
P (B ∩ A)
P (B|A) =
P (A)
X
P (xn ) = 1. (I.1)
n
En el caso especial en que un sólo evento es cierto, por ejemplo xp , y ninguno del
resto puede ocurrir tendremos que
P (xn ) = δn,p ,
1. PX (x) ≥ 0 ∀x ∈ DX ;
2. DX PX (x0 )dx0 = 1;
R
X
P (x) = P (xn )δ(x − xn ), (I.2)
n
para ello sólo es cuestión de recordar que la delta de Dirac sólo tiene significado bajo
integración mediante la propiedad:
Z
f (xp ) = dxδ (x − xp ) f (x). (I.3)
ya que Z
hδ (X − x)i = dx0 δ (x0 − x) PX (x0 ) = PX (x)
DX
dFX (x)
PX (x) = . (I.6)
dx
por lo tanto
dFY (y) dx dFX
= .
dy dy x=h(y) dx x=h(y)
O en términos más convenientes:
dx
PY (y) = PX (x = h(y)) .
dy x=h(y)
Luego usaremos una de las las propiedades de la delta de Dirac, que consiste en lo
siguiente. Supongamos que g(x) una función con m raı́ces simples, tal que existen
r = m + 1 intervalos donde la función posee inversa. Si denotamos tales inversas como
xi = gi−1 (y) con i ≤ m + 1, entonces
r r
X δ (x − xi ) X dx
δ (g(x) − y) = 0 (x)|
= δ (x − x i ) dy −1 .
i=1
|g x=x i i=1 x=g (y)
i
IV La teorı́a axiomática y su relación con los datos experimentales. 15
que tiene la particular propiedad de estar vinculada con la delta de Dirac mediante la
siguiente relación:
dΘ (z)
δ(z) = . (I.11)
dz
Consideremos el evento A que consiste en que la va X tome un valor menor a x.
Entonces si el número de veces en que sucede dicho evento está dado por
n
X
m= Θ (x − Xi ) ,
i=1
ya que δ (Xi − x) = dΘ (x − Xi ) /dx. Veamos como esta formalidad nos permite saber
como obtener el promedio de cualquier función de la va f (X):
Z
hf (X)i = dx0 f (x0 )PX (x0 )
DX
n
δ (Xi − x0 )
Z X
= dx0 f (x0 ) lı́m
DX n→∞
i=1
n
n
dx0 f (x )δ (Xi − x0 )
0
R
DX
X
= lı́m ,
n→∞
i=1
n
es decir,
n
X f (Xi )
hf (X)i = lı́m . (I.14)
n→∞
i=1
n
V. Función Caracterı́stica
y por lo tanto Z ∞
1
PX (x) = dke−ikx GX (k), (I.16)
2π −∞
donde DX es el dominio de la va X.
18 ELEMENTOS DE PROBABILIDAD
donde
1 dm GX (k)
m
Mm ≡ hX i = m . (I.17)
i dk m k=0
Observación I.3 Por la primera y segunda propiedad de la Definición I.10 resulta que
GX (0) = 1 y |GX (k)| ≤ 1, ya que:
Z
GX (0) = dx0 PX (x0 ) = 1,
ZDX Z Z
0 ikx0
dx0 eikx PX (x0 ) ≤ 0 0
dx0 PX (x0 ) = 1.
|GX (k)| = dx e PX (x ) =
DX DX DX
λn
PN (n) = exp(−λ); n ∈ [0, 1, 2, · · · ], λ ∈ (0, ∞)
n!
donde PN (n) da la probabilidad de que la va N tome algún valor n. Muestre que la función
caracterı́stica está dada por
M!
PB (n) = pn (1 − p)M −n ; n ∈ [1, · · · , M ], M ∈ N , p ∈ [0, 1].
n! (M − n)!
−(x − µ)2
1
PX (x) = √ exp ; x ∈ [−∞, +∞], {µ, σ} ∈ Re ,
2πσ 2 2σ 2
V Función Caracterı́stica 19
σ2 2
GX (k) = exp ikµ − k .
2
b(b + 1) · · · (b + n − 1)
hX n i =
cn
2 ≡ (X − hXi)2 = b/c2 .
Muestre que la dispersión viene dada por σX
Ejercicio I.25 Calcule la normalización de una distribución gaussiana con soporte no ne-
gativo y valor más probable en xp .
donde cada va Xl puede tomar como valor ±1, con probabilidad p y q = 1 − p, respec-
tivamente. Las variables aleatorias Xl pueden representar los pasos de un caminante al
azar que parte del origen de coordenadas y realiza un paso hacia adelante con probabi-
lidad p y un paso hacia atrás con probabilidad q. Ası́, si el caminante realiza r pasos Yr
es la posición del mismo después de realizarlos. Veremos como es posible determinar,
mediante la función caracterı́stica, la probabilidad de que el caminante esté en una
posición y después de haber realizado r pasos.
20 ELEMENTOS DE PROBABILIDAD
Qr
y dado que eiky = l=1 eikxl , la función caracterı́stica puede reescribirse
X X r
Y r
Y X
ikxl
eikxl PXl (xl ),
GYr (k) = ··· e PXl (xl ) =
x1 ∈{−1,1} xr ∈{−1,1} l=1 l=1 xl ∈{−1,1}
r! r+y r−y
PYr (y) = r+y
r−y p( 2 ) q ( 2 ) , (I.19)
2
! 2 !
2A
PYr (y) ∼
=√ q y y .
y 2 y r (1+ r )/2 y r (1− r )/2
2πr 1 − r
1+ r
1− r
tenemos
y2
e− 2r
PYr (y) ∼
= 2A √ .
2πr
2
− 2x
dy e 4(a /2τ )t
Pt (x) = PYr=t/τ (y = x/a) ∼
= 2A p 2
dx y=x/a 4(a /2τ )t
22 ELEMENTOS DE PROBABILIDAD
x2
e− 4dt
Pt (x) = 2A √
4dt
R +∞
Finalmente, de la condición de normalización −∞
Pt (x) dx = 1 es fácil ver que A = 1/2
y por lo tanto
x2
e− 4dt
Pt (x) = √ (I.20)
4dt
es decir, Pt (x) es una distribución de Gauss con promedio nulo y varianza hx(t)2 i = 2dt.
es una nueva va, tanto por el carácter de cada una de las vaei Xl como por el carácter
aleatorio del número r de variables. La función caracterı́stica de la va Y está dada por
∞
X Z
iky
GY (k) ≡ he i= Pr dyPYr (y)eiky .
r=0 DYr
donde tanto la densidad de probabilidad PYr como el dominio DYr dependen del valor
que toma r en la sumatoria. Esto se debe a que r junto con las caracterı́sticas de cada
una de las va Xl (en particular sus dominiosDXl ) definen a la va Y y determinan el
lı́mite de los valores a los cuales tiene acceso.
R R R
y que la integral DYr
dy es equivalente a las integrales DX1
dx1 · · · D Xr
dxr , tendremos:
∞ Z Z r
! r
!
X Y Y
ikxl
GY (k) = Pr dx1 · · · dxr PXl (xl ) e .
r=0 DX1 DXr l=1 l=1
X∞ r Z
Y
= Pr dxl PXl (xl )eikxl .
r=0 l=1 DXl
Definición I.13 Sea r una variable aleatoria entera positiva cuya probabilidad es Pr ,
se define su función generatriz como
∞
X
fr [Z] ≡ Pr Z r . (I.21)
r=0
Teorema I.2 Sea {Xi }i≤N un conjunto de vaei y sea la va definida como X =
PN
i=1 Xi entonces:
N
X
M ≡ hXi = hXi i ;
i=1
N
X
2 2
σi2 = N σi2 ,
σ ≡ (X − hXi) =
i=1
σ 2 ≡ (X − hXi)2 = X 2 − hXi2
N
X N
X N
X
2 2 2
M = hXi = hXi i hXj i = hXi i + hXi i hXj i .
i,j=1 i=1 i,j=1/i6=j
Z Z Z N
!
Y
hXi Xj ii6=j = dxPX (x)xi xj = dx1 · · · dxN PXi (xi ) xi xj
DX Dx1 DxN i=1
Z ! Z !
= dxi PXi (xi )xi dxj PXj (xj )xj = hXi i hXj i .
Dxi D xj
V Función Caracterı́stica 25
entonces
N N
2 X
2 X
X = Xi + hXi i hXj i .
i=1 i,j=1/i6=j
De esta manera:
N
X N N N
2 X X X
σ 2 = X 2 − hXi2 = hXi i2 = Xi − hXi i2 =
2
σi2 = N σi2 .
Xi −
i=1 i=1 i=1 i=1
donde se hizo uso de que σi es el mismo para cualquier va del conjunto {Xi }i≤N .
Teorema I.3 (Teorema Central del Lı́mite) Sea {Xi }i≤N un conjunto de vaei
que cumplen con las condiciones:
(i)
M1 ≡ hXi i < ∞;
(i)
M2 ≡ Xi2 < ∞.
PN
Sea además la va definida como X = i=1 Xi entonces:
(x−M )2
e− 2σ 2
lı́m PX (x) = √ .
N →∞ 2πσ 2
N
X (i)
M= M1 ;
i=1
N
X
σ2 = σi2 = N σi2 .
i=1
X −M
Z= ,
σ
entonces:
N
D k E k k
GZ (k) = eikZ = ei σ (X−M ) = GX−M
= GXi −M (i) .
σ 1 σ
(i)
La función caracterı́stica de la va Xi − M1 puede escribirse en términos de sus mo-
mentos:
∞ m
k2 2
X
k 1 ik
i m
1
GXi −M1i = Xi − M1 = 1 − 2 σi + O 3
,
σ m=0
m! σ 2σ σ
26 ELEMENTOS DE PROBABILIDAD
D E
2
ya que hXi − M1i i = 0 y (Xi − M1i ) = σi2 . Teniendo en cuenta que σ 2 = N σi2 ,
podemos reescribir la última relación como:
k2
k 1
GXi −M1i =1− +O .
σ 2N N 3/2
entonces
lı́m GX (k) = eikM lı́m GZ (kσ),
N →∞ N →∞
es decir:
σ2 2
lı́m GX (k) = eikM − 2
k
N →∞
2
Hemos usado el famoso lı́mite notable:
α N
lı́m 1+ = eα .
N →∞ N
VI Entropı́a probabilista: una medida de falta de información. 27
Es claro que la falta de información debe ser una función decreciente de la densidad
de probabilidad PX (x), ya que a medida que esta aumenta tendremos más información
del comportamiento de la va en el valor x. Por ello postulamos el siguiente axioma:
Axioma I.6 La falta de información s [PX (x)] es una función monótona decreciente
de la densidad de probabilidad PX (x).
Por otro lado, dado que los eventos de una va son estadı́sticamente independientes,
la falta de información asociada a cada uno de ellos debe contribuir a la falta de
información total de manera independiente. Este hecho motiva el siguiente axioma de
aditividad de la falta de información:
Y dado que,
1
f (x) = eαx ⇔ g(µ) = β ln(µ) con β = ,
α
resulta directamente que
Veremos más adelante como la entropı́a estadı́stica coincide con la entropı́a ter-
modinámica cuando se hace uso de la Teorı́a de la Probabilidad para fundamentar la
Termodinámica a partir de un análisis microscópico de los sistemas en términos de la
Mecánica.
Ejercicio I.27 Determinar la entropı́a estadı́stica de una va X uniforme que cuyo dominio
es DX = {x1 , . . . , xΩ }.