You are on page 1of 171

1

INTRODUCCION

La Teoria Estandar de la NucleoSintesis (SBBN) funciona extremadamente bien

es una teoria que describe los eventos tan primigenios como los primeros segundos

del tiempo cosmico. Es una teoria sobredeterminada con menos parametros que

predicciones; provee evidencia para una historia del Universo hasta la epoca

muy primigenia del desacoplamiento de la interaccion-debil (T > 1 MeV, t<1 seg.)

Confirma: la homogeneidad en ese tiempo, y tambien la ley de expansion predicha

por la Relatividad General, nos confirma la aproximada conservacion de entropia

desde los tiempos primigenios; y tambien confirma el Modelo Estandar de la Fisica

de Altas Energias.[glosario]

La teoria es bien definida,muy precisa,las mayores incertidumbres son introducidas

por los valores experimentales de las secciones de las reacciones nucleares.

La exactitud teorica es mejor que un: 0.1 % para el 4 He mejor que un 10% para el

deuteron, y de unos: 20 a 30% para el Litio, en todos esos casos, la incertidumbre

teorica es mucho mas pequeña que la precision observacional, y permite tener cono-

cimiento del Universo hasta tiempos del orden de: 1 seg. después de la llamada

“gran explosion”: origen del Universo en un instante t = 0.


2

El problema del Deuteron (D).

A causa de sus propiedades unicas, la distribución del D en el Universo constituye una

pista poderosa para trazar la historia del desarrollo de la materia. El deuteron es muy

inestable, su energia de amarre nuclear es de solo 2.2 MeV.

Los astrónomos precisan que solo pudo haber sido sintetizado durante los tres prime-

ros minutos de la expansion .

El campo de la Cosmologia ha entrado en una era de precision, una era donde una

imagen global del Universo esta cristalizando a causa de las nuevas observaciones

precisas que pueden poner a prueba al modelo cosmologico estandar (siglas SBBN)

con una pletora de datos nuevos. A partir del año 1948, la Cosmologia ha

sido transformada, de ser una rama de la Filosofia Metafisica, a ser Ciencia dificil.

La creacion de radio-telescopios condujo al descubrimiento de quasares, pulsares

lentes gravitacionales y de hoyos negros, la radiacion cosmica de fondo.

Las fluctuaciones en la radiacion cosmica, fueron detectadas, fueron hechos los des-

cubrimientos de estructuras del Universo a gran escala: los muros y vacios.

Es importante revisar y checar los pilares fundamentales de la Cosmologia Estandar:

son: la teoria de la Gravitacion de Einstein y la expansion universal, de Hubble

la nucleosintesis debida a la gran explosion (BBN) y la radiacion cosmica de fondo.


3

La SBBN predice con exactitud las abundancias primordiales de los elementos

ligeros: deuterio, helio, litio, boro. La concordancia entre las abundancias predichas

y las medidas, provee una medida directa de la densidad barionica del Universo.

Se emplea a la BBN y a la CMB para investigar a la fisica del Universo primigenio

desde tiempos de un segundo hasta 400,000 años despues del instante inicial de la

”gran explosion”, y hasta mayores tiempos.

Recientes medidas de la anisotropia de la CMB, ejecutadas por el satelite WMAP

examinaron esta concordancia al medir independientemente dicha densidad.

Clave a esta prueba de concordancia es un entendimiento cuantitativo de las incert-

tidumbres en las predicciones de las abundancias.[Cyburt, 2004]

Estas incertidumbres son dominadas por los errores sistematicos en las secciones

nucleares de dispersion, pero para el Helio-4 estas son dominadas por las incerti-

dumbres en la vida media del neutron,τ(n). y en la constante de Newton G.

La concordancia entre las restricciones a las diferentes densidades de bariones pone

limites cuantitativos sobre sus concordancias, y restringe a los modelos no-estandar

Desviaciones de estas, sugieren la necesidad de nuevos efectos fisicos en el sistema

de la teoria BBN estandar, tales como: la variacion temporal de las constantes fisicas,

la existencia de la nuevas particulas predichas por las teorias SuperSimetricas:


4

gravitinos, neutralinos, fotinos, etc. y el lepton pesado: τ,

El ”boom” reciente en las medidas de la anisotropia, ofrece dar nueva forma al

panorama cosmologico. Estas observaciones traen una medida independiente de

la densidad barionica del cosmos.

Si se adopta la densidad medida por el WMAP, se restringe al numero de neutrinos

a ser tres; esto quiere decir que hay una relacion entre la BBN y la Fisica Fundamen-

tal de Particulas Elementales; los teoricos en este campo han encontrado que

la Teoria Unificada de las Interacciones (GUT, siglas in ingles) tiene implicaciones

Cosmologicas [#]. Conforme se den nuevos datos mas precisos de las secciones

nucleares, y de las abundancias y la resolucion de la anisotropia de la CMB

restricciones mas severas pueden establecerse sobre la Astrofisica Nuclear y la

Fisica de Particulas Elementales

Respecto al concepto de ”la gran explosion”, hay una polemica, unos expertos

afirman que no hubo tal explosion, sino una expansion a partir de un plasma muy

caliente y muy denso, el mismo Lemaitre escribio sobre un ”Atomo primigenio”

Gamow, de una materia primordial, bautizada como: ”Hyle” -en Griego: fundamento-

algunos prefieren hablar de una singularidad, en el sentido matematico: un punto

sin dimensiones, con temperatura y densidad infinitas, y si, de una gran explosion.
5

Otros [Steinhardt, 2000], teorizan que la BB se debio a una interaccion entre dos

”membranas” [branes] desde un Universo de dimensiones mayores a tres.

El estatus de la SBBN como una ”piedra angular” de la Cosmologia reposa sobre

la concordancia entre las predicciones teoricas y las mediciones.

Su fuerza consiste en que es una teoria que pasa las pruebas experimentales; desde

su inicio en 1948, la BBN predijo una abundancia del Helio de: Y ~25% y las estre-

llas tienen esta abundancia, asi dando la mas fuerte evidencia, hasta la fecha, que la

SBBN explica la sintesis de los elementos ligeros en la epoca de unos pocos minutos

luego del instante inicial de la BB.

En los años 80’s, la BBN paso la prueba del Litio-7 cuando la predicha abundancia

de 10 −10 , relativa al Hidrogeno, fue verificada via la observacion del litio en estrellas

de baja metalicidad, en nuestra galaxia.

Estos exitos permitieron acotar con exactitud la densidad de bariones del Universo y

su tasa de expansion, en la epoca de la nucleosintesis.[Yang et al, 1984]

En los 1990’s hubo muchas observaciones de las abundancias de: D, 3 He, 4 He, Li,

las observaciones del D en tres quasares fueron la primera medida directa de una

abundancia primordial y fueron la siguiente prueba critica de la BBN.

Pero, porque las abundancias primordiales no son necesariamente directamente me-

dibles ambas, la calidad de los datos y de los modelos de evolucion quimica y estelar
6

usados para inferir las abundancias primordiales de estos, han llegado a ser muy

muy importantes cuando los datos han aumentado.

En muchos casos estas abundancias deben ser corregidas debido a la ”contaminacion

astrofisica” que sucede durante la evolucion del Universo, y asi la determinacion de las

abundancias depende del modelo.

Consecuentemente, checar la teoria SBBN con las observaciones, descansa sobre los

modelos de evolucion quimica y estelar que trazan el destino de los elementos ligeros

al traves de los varios ambientes astrofisicos.

Las abundancias primordiales son obtenidas de datos contaminados y asi se debe

apoyar sobre un modelo para la evolucion de un elemento dado cuando es procesado

a traves de una o de mas generaciones de estrellas y es aumentado o reducido por

procesos galacticos (entrada de materia primordial o flujo de salida de material proce-

sado). La tarea es derivar cotas sobre las abundancias primordiales que sean insensi-

bles a los detalles de su historia de procesamiento como sea posible.

Predicciones
Las predicciones de la SBBN estan unicamente determinadas por un parametro: la

densidad de los bariones (parametrizada por η : el cociente bariones/fotones: n b /n γ ),

con tal que asumamos un Universo homogeneo e isotropico que tuvo,en un instante

inicial muy denso y muy caliente, y que la densidad de su energia, al tiempo de la NS:
7

t ~1 seg. luego de la BB esta descrita por el Modelo Estandar de la Fisica de Parti-

culas Elementales: La Cromodinamica Cuantica (QCD).La densidad de energia, es:

ρ tot = ρ γ + ρ b + ρ e + ρ ν N ν ,

densidades de fotones, electrones,bariones y de neutrinos, N ν es el numero de espe-

cies de neutrinos). Los calculos de abundancias, del modelo SBBN son hechas con el

codigo Fortran de computadora hecho por Robert Wagoner, [1973].

Las abundancias primordiales son obtenidas de datos contaminados y asi se debe apo-

yar sobre un modelo para la evolucion de un elemento dado cuando es procesado al

traves de una o mas generaciones de estrellas y es aumentado o reducido por procesos

galacticos (entrada de materia primordial o flujo de salida de material procesado)

La tarea es derivar cotas sobre las abundancias primordiales que sean insensibles a los

detalles de su historia de procesamiento, como sea posible.

Citando a Zeldovich: la cosmologia ha provisto de un acelerador ”para el pobre”, para

la Fisica de particulas elementales. Cuando los aceleradores terrestres se acercan a los

limites ultimos de la tecnologia, es imperativo que nuestro entendimiento del laboratorio

cosmologico sea desarrollado aun mas, en particular porque ofrece probar fenomenos

que nunca pueden ser recreados en los laboratorios terrestres, no importando que tan

poderoso fuera el acelerador.


8

Pero muchos teoricos ya se han guiado casi exclusivamente por consideraciones cosmo-

logicas, puesto que no hay otros datos experimentales disponibles en las energias en las

que estan interesados. Al comparar los datos de las abundancias con calculos teoricos,

notamos que ahora hay un estado insatisfactorio de la situacion observacional.

En 1996, hubo un esfuerzo concertado para obtener determinaciones precisas de las

abundancias, y los numeros aun estan plagados por errores sistematicos, los investiga-

dores de este campo usan criterios muy subjetivos, como: ”razonable” y ”sensible” para

determinar cotas a las abundancias.

Y las fluctuaciones en la radiacion cosmica, que ”iluminan” las etapas primigenias del

Universo fueron detectadas, y fueron medidas con los satelites WMAP y PLANCK

con una exactitud sin precedente, dando una determinacion precisa de la densidad

barionica, a ser: Ω b h 2 = 0.0224 ± 0.0009, [Spergel,et.al.,(2003)]

El acelerador de particulas, LEP, ha checado el modelo estandar de la FPE y ha che-

cado el modelo basico BBN, en dos formas: a traves de la NS y del conteo de neutri-

nos, limitando los candidatos de materia obscura.

La CMB prueba los eventos a una temperatura de 10 4 K, y a tiempos de 10 5 años

donde las abundancias de los elementos ligeros prueban el Universo a una T = 10 10 K

y a tiempos del orden de t ~1 seg. Son los resultados de la NS que han llevado a la
9

union: cosmologia-particulas elementales. La teoria BBN ha predicho que la abundan-

cia del He, es de: Y ~25% .

En 1984, Yang y Olive, y por Reeves y Audouze, establecieron completamente la BBN

como herramienta para explorar el Universo, y que es diferente de un chequeo de con-

sistencia, esto fue hecho al mostrar que las demas abundancias de los ligeros tenian

contribuciones principales de la BB, y que los efectos de las contribuciones estelares

donde eran relevantes podrian ser removidos por tecnicas apropiadas para obtener

restricciones sobre los productos de la BB para esos isotopos.

Asi, las predicciones para los 4 elementos ligeros: He, Li, Be, D eran muy relevantes.

Se demostro en los 70’s que contrario a lo que se pensaba, que el deuteron es hecho en

una cantidad significativa en la etapa de la NS, el deuteron producido asi, restringe a la

densidad de los bariones ”desde la cota superior”

Inversamente, el 3 He puede usarse para restringir esta densidad ”desde abajo”solo si la

abundancia relativa del Li respecto al hidrogeno: Li /H, esta cerca de su minimo permitido

de 10 −10 , es posible la concordancia.

Los astronomos midieron esta prediccion, de hecho, el Li da las mismas restricciones a

la ρ b como lo hace el D, o el 3 He, convirtiendo a la fraccion de la densidad critica con el

rango permitido [el parametro h, o ”de ignorancia” en la cte. de Hubble] da, para la den-
10

sidad Ω : 0.02 < Ω b h 2 < 0.11

que concuerda con las estimaciones dinamicas de la Ω, pero requiere de materia no-

barionica si la densidad Ω = (ρ/ρ c ) =1

La existencia de mas neutrinos implica el efecto fisico: si hay mas tipos de particulas

relativistas, seria mas grande la densidad a una temperatura dada y asi, una expansion

cosmologica mas rapida, y esta, daria como resultado, las tasas de las interacciones

debiles, ser rebasadas por la tasa de la expansion, en una epoca anterior, a T mas alta

asi la interaccion-debil sale del equilibrio mas pronto ocasionando que hayan mas neu-

trones y asi mas Helio, pues ya no hay reacciones de reversa, y se desequilibra todo.

Con la determinacion de las medidas extragalacticas del Deuterio, la teoria BBNS se ha

transformado. Se dice que la actual es una Era de Precision en la Cosmologia.

En el pasado, se hacia enfasis en demostrar la concordancia del modelo estandar BBN

con las abundancias de los isotopos ligeros, extrapoladas a sus valores primordiales al

usar las teorias de la evolucion estelar y galactica.Cuando una medida directa del D

primordial es establecida, se usa para restringir los modelos, mas flexibles, de la evolu-

cion estelar [y esta abierta la cuestion del error sistematico en la abundancia del Helio]

El exito notable de la teoria en establecer la concordancia, ha conducido a concluir que

la BBNS es un tercer pilar fundamental de la Cosmologia de la BB, junto con la expan-


11

sion de Hubble y la radiacion cosmica del fondo (siglas CMB).

de los tres pilares, el BBN analiza al Universo hasta tiempos primigenios de: t ~1 seg

y conduce a una interaccion de la cosmologia con la fisica de particulas elementales.

Las nuevas medidas extragalacticas del D afianzan esta imagen. y dan un valor conver-

gente de la densidad del Universo, Ω, y permiten a la BBN ser una restriccion en los

escenarios de la evolucion estelar y galactica.

El Universo se expande de acuerdo con las ecuaciones de Einstein-Friedman, y esta

formado como un plasma muy caliente de multitud de particulas que se formaron en una

era anterior a la del BBN y son atraidas o repelidas por medio de la fuerzas: nuclear, la

debil y la electromagnetica.

Y las medidas de las abundancias de: 3 He, 4 He, 6 Li, Be y B, muestran una concordan-

cia notable con los calculos teoricos. Ahora, esta concordancia trabaja, solo si la

densidad de bariones es menor que el valor critico de la densidad cosmologica.

Desde los trabajos pioneros de Gamow, Alpher, Hoyle,Peebles, Wagoner, los calculos

no han variado mucho. Estos se hacen asi: se establece una red de reacciones nucleares

que llevan desde el Hidrogeno, hasta el Deuterio, Litio,Berilio, Boro, etc,por captura de

neutrones y por decaimiento-beta, cada reaccion tiene su seccion eficaz de dispersion o

captura, y su exactitud depende de la exactitud de los actuales experimentos de disper-


12

sion nuclear; se calcula la tasa de reacciones: R = n < σ v> donde estos promedios:

< σ v > se calculan usando una distribucion de velocidades,de Maxwell, se sutituyen las

R’s en las ecuaciones para las abundancias y se utiliza un programa de computadora, en

Fortran, establecido por Truran y por Wagoner, el cual tiene varios parametros que se

dan como datos de entrada, que son: el parametro de Hubble, la vida media del neutron,

la densidad de particulas, el numero de neutrinos, (todavia se espera mejorar la medida

de la vida media del neutron). La abundancia del 7 Li es la que se mide con menor exac-

3
titud, porque las reacciones 3 H(α,γ) 7 Li y la He(α,γ) 7 Be, son medidas con poca

precision. Las incertezas experimentales tienen un impacto minimo.

En los años 60’s el interes estaba en el 4 He que no depende sensiblemente de la densi-

dad, fue hasta los años 70’s que la teoria BBN fue desarrollada como una herramienta

para investigar el Universo, mas aun, las determinaciones de la abundancia del D mejo-

raron significativamente con mediciones en el viento solar, y en los meteoritos, y medidas

en el medio interestelar por el satelite Copernico, en 1973. Medidas con el telescopio

Hubble, en 1993, han disminuido los errores de medicion, considerablemente.

Reeves et.al., dieron una restriccion a la densidad de bariones, excluyendo un Universo

cerrado con bariones. Luego estos argumentos sobre el D fueron cimentados y proba-
13

ron que ningun otro proceso astrofisico que no fuera el BBN produciria D,significativa-

mente. Esto fue el principio del uso del Deutron como ”bariometro cosmico”,

que culmino en una determinacion de la densidad con una exactitud de 5 %

Esta densidad fue comparada con las medidas dinamicas de la densidad, mostrando que

la Ω no intersecta a la Ω-visible para cualquier valor de la H 0 , y que la Ω total > 0.1,

tal que la existencia de la materia obscura no-barionica es necesaria.

Yang et al, enfatizaron, en 1984, apoyados en medidas precisas, que las abundancias de

los elementos ligeros son consistentes, sobre nueve ordenes de magnitud, con la BBN,

pero solo si la densidad Ω b esta restringida a ser alrededor de 6 % del valor critico

(para Ho ~50). Otro desarrollo fue el calculo explicito, por Steigman et al , mostrando

que el numero de generaciones de neutrinos, N ν , tenia que ser pequeño pera evitar la

sobreproduccion del 4 He, y tambien en los 70’s, fueron descubiertos: el quark ”encanta-

do” el ”bottom” y el lepton pesado, τ; asi que parecia que cada nuevo detector de parti-

culas produciria nuevas. Posteriormente el limite a N ν mejoro con medidas de la abun-

dancia Yp, del Helio, y las mediciones del tiempo de vida τ(n) del neutron, y con limites

a la cota inferior a la densidad fluctuando en N ν ≲ 4, durante los años 80’s.

El poder de la BBN homogenea viene del hecho que esencialmente toda la fisica que se

da como ”entrada” esta bien determinada en el laboratorio terrestre. El rango apropiado

de temperaturas, desde: T = 0.1 a 1 MeV esta bien explorado en los laboratorios, se


14

conoce con precision, de hecho, se conoce para esas temperaturas,T, mejor que lo co-

nocido en el centro de las estrellas como nuestro sol, su centro tiene una T ≳ 10 6 K,

equivalentes a: E ~1 KeV, menor que las energias donde las tasas de las reacciones nu-

cleares dan resultados significantes en los experimentos, y solo los tiempos grandes y

altas densidades disponibles en las estrellas permiten que muchos sucesos tomen lugar.

¿Crisis o Concordancia?

El argumento para una ”crisis” en la BBN se basa en una cota superior a la abundancia

D/ H, llevando a una cota inferior sobre la η, que entra en conflicto con la abundancia

Y P . Pero esta cota no es creible. No hay conflicto galactico con una gran abundancia

del deuterio, pues la evolucion quimica puede destruir a este, por un factor de 10 o mas

¿que tan buena es la concordancia, y que tan bien restringida es la η?

una opinion sensible y conservadora es que la dispersion actual de los resultados publi-

cados refleja ignorancia o ”errores sistematicos”.

En este caso,se puede afirmar solo que los 3 elementos son ampliamente consistentes

con η, sobre lo mas del rango de: 10 −9 a 10 −10 .

A pesar de la concordancia, esta es una, algo debil, victoria para la SBBN.

Pero la meta es mas ambiciosa: se desea una prueba mas precisa del modelo y una

medicion mas precisa de la η. Nuevos experimentos en Fisica Nuclear: medir las


15

secciones nucleares de dispersion, ayudara a reducir las incertidumbres teoricas.

[La compilacion mas reciente de tales secciones es la NACRE,C. Angulo,et.al.,’99]

Esa medida de la densidad se obtuvo con el WMAP, que fue de:

Ω b h 2 = 0.0224 ± 0.0009, y la traduccion entre Ω y η, es: Ω b h 2 = 3.6519x10 7 η

Desde los años 80’s, los cosmologos introdujeron para la densidad barionica del

Universo, un intervalo de concordancia donde las abundancias predichas y las medidas

de los elementos ligeros, fueran consistentes con sus incertidumbres.

Al final de los 90’s, la determinacion del deuterio primordial, D, se supone que es lo

suficientemente exacta para fijar la densidad ρ u Ω ; y estos intervalos para el D, 7 Li,

4
He y Ω b eran predichos por mediciones del D.

En el 2000, observaciones de la CMBA, llegaron a ser un medio competitivo de

estimar la Ω b . Entonces los resultados de la CMBA pueden ser un chequeo de los

resultados de la teoria SBBN, y pueden conducir a nuevas restricciones de dicha teo-

ria, esto es: la fisica de neutrinos, (los procesos fisicos que incluyen a estas particulas,

durante las eras de la evolucion del Universo).

Medir las abundancias primordiales es un desafio considerable, debido a las

dificultades ya mencionadas, Burles, et.al. midieron, en1999, para el He, D, Li:

Y p = 0.244 ±0.002 (es la abundancia Primordial del Helio)


16

7
D = (3.4 ± 0.3)x10 −5 Li = (1.7 ± 0.15)x10 −10
H P H P

3
He = (1 ± 0.3)x10 −5
H P

(los cocientes expresan: la abundancia entre la abundancia del hidrogeno)

en 1980 los cosmologos introdujeron un intervalo de concordancias para la Ω b donde

las abundancias predichas y medidas para los cuatro elementos ligeros son consistentes

Copi,et al, (1995) derivaron:

0.007 < Ω b h 2 < 0.024

hubo un cambio entre 1998 y 1999,con la determinacion exacta la abundancia del D

primordial que permitio la determinacion, mas exacta de la densidad barionica, Ω b


17

La figura muestra los intervalos de concordancia para cada elemento y la densidad

y las abundancias esperadas para los nucleos 3 He, D, 4 He y 7 Li, calculadas en la

SBBN. Nuevas estimaciones de los errores en las secciones transversales fueron

usadas para estimar los intervalos de confianza (C. L.) de 95% que se muestran

por las anchuras verticales de las predicciones de las abundancias. La escala hori-

zontal, η, es el unico parametro libre en los calculos, se expresa en unidades de la

densidad barionica o la densidad critica para un parametro de Hubble de 65 km


s.Mpc

Los C.L. de 95% para los datos, mostrados por los rectangulos, son del trabajo

de Isotov y Thuan,1988 ( 4 He); Burles y Tytler,1998 (D); Gloeckler,1996 ( 3 He)


18

Bonifacio y Molaro, 1997 ( 7 Li extendido hacia arriba por un factor de dos para

permitir un posible agotamiento.La densidad barionica es predicha por la medicion

del deuterio, (banda vertical). (de Burles, Nollett, Turner, astro-ph/9903300)

Tytler et al [2000] midieron la abundancia del deuterio:

(D/ H) P = (3.3 ±0.5)x10 −5

Burles, Nollet, Turner, [2000] proporcionaron la determinacion:

Ω b h 2 = 0.0189 ±0.0019

hasta ese año, la concordancia entre las predicciones de la teoria SBBN y las medicio-

nes, hacian de la SBBN una piedra angular de la cosmologia de la teoria del Big Bang.

Pero, las mediciones de la CMB, en los globos: BOOMERANG y MAXIMA

en el año 2000, favorecen el valor: Ω b h 2 = 0.030 +0.009


−0.008

el cual no puede ser acomodado en el modelo SBBN [Burles, 2000]. Los experimen-

tos con los satelites WMAP y el PLANCK surveyor, mejoraron la medida de la Ω b , y

aparentemente la SBBN, entro en crisis, y los cosmologos y los astrofisicos investigan

actualmente a los modelos no-estandar de la NS, (siglas NSBBN).

En 1970, los astronautas del Apolo determinaron la abundancia del D y esto se empleo

para restringir la densidad de la materia ordinaria pues la produccion del D, depende

de la densidad de bariones, ρ b ; y los procesos astrofisicos, desde la epoca primordial,


19

destruyen al deuterio.

El D era usado para establecer un limite superior a la ρ b basandose en el hecho que la

BB debio haber producido al menos la cantidad del D observada en el medio interes-

telar (ISM), junto con las mediciones de las abundancias de los demas elementos lige-

ros, producidos en la BB, se derivo un intervalo de concordancia para la densidad ba-

rionica. Pero ocurrio un cambio en 1998, Tytler midio esta abundancia y obtuvo

(D/H)p = (3.0 ± 0.4) x 10 −5

que lleva a una determinacion precisa:

Ω b h 2 = 0.020,

con el parametro de Hubble, (o factor de ignorancia): h = H 0 /100, y esto implica :

ρ b = 1.878x(Ω b h 2 ) x 10 −29 gr/cm 3

Los experimentos en el globo BOOMERANG y el satelite WMAP, reportaron, para la

densidad: Ω =0.032 ±0.009, y esto concuerda con la teoria BBN.

Medidas de las anisotropias de la CMB pueden,ultimamente, determinar la densidad

hasta una exactitud del 1%

WMAP
Observo las anisotropias de la CMB, con una precision de 10 −6 K, su resolucion angu-

lar es de 40 veces mejor que su predecesor, el satelite COBE; observo el cielo

completamente, durante un año entero. Midio la polarizaciuon de la CMB, la orientacion


20

de la radiacion surge en parte, de la ultima dispersion de luz en la epoca de la ”recombi-

-nacion” cuando se formaron por vez primera los atomos estables,

Medidas de las anisotropias de la CMB determinaron la densidad barionica, hasta una

exactitud del 1%. La edad del Universo determinada, es de 13,700 millones de años.

Este resultado es consistente con las mediciones de la edad obtenidas por otros medios

con el telescopio espacial Hubble, haciendo mediciones de distancias y corrimientos ha-

cia el rojo de estrellas cefeidas en galaxias lejanas. Otros datos obtenidos, son:

∘ el tiempo de recombinacion fue 380,000 años despues del instante inicial, t = 0

∘ la era de las primeras estrellas fue cerca de 200 millones de años despues del inicio.

∘ la composicion de materia del Universo es: materia atomica: ~4%, materia obscura:

de cerca del 23%, y energia obscura: 73 %.

∘ Mide el espectro Intensidad-frecuencia, con suficiente precision. que apoya al modelo

inflacionario de Guth y Linde, el cual predice una pequeña desviacion de la planidad

del espectro de las inhomogeneidades.

Alain Coc, Carmen Angulo et.al, han calculado,empleando calculos Monte-Carlo, y

usando datos del WMAP, las abundancias de: 3 He, 4 He, D, Li, como funcion de η,

y asi es ahora posible inferir las abundancias primordiales de tales elementos. p.ej.

para el deuterio se obtiene: D/ H =2.60x10 −5 , de perfecto acuerdo con el valor

promedio 2.78x10 −5 obtenido en las nubes cosmologicas. Esto refuerza la confianza


21

en el valor deducido de: Ω b h 2 .

Las otras abundancias deducidas son:

Y P = 0.2457 ± 0.0004, para el 4 He

7
3
He/H = (1.04±0.04) x 10 −5 Li/H = (4.15±0.49)x10 −10

Pero, hay una fuerte discrepancia con las mediciones del Litio en las estrellas-halo,

y esta discrepancia, si no es de origen nuclear, es un desafio.

Hay teorias recientes que podrian afectar a la BBN, son: la que investiga a la

variacion de la constante de estructura fina, (α = e 2 /c), la que modifica a la

velocidad de la expansion durante la era de la NS, debida a la Quintaesencia,

la teoria de la gravitacion modificada, la de las asimetrias leptonicas.

Sin embargo, su efecto es mas significativo sobre el He que sobre el Li.

Por otra parte, de observaciones de supernovas-I, a z grande, ejecutadas por dos

grupos de cosmologos: las medidas de luminosidad-distancia muestran evidencia de

que el Universo actual esta acelerando su expansion.

Mas aun, medidas recientes de la CMBA y de las fracciones de bariones en los

clusters de galaxias, indican que el Universo es plano, y que la materia contribuye

cerca de 1/3 de la densidad critica; y que cerca de 2/3 de esta densidad constituye

la energia obscura: Ω Λ ~2/3.

La naturaleza de esta energia es un nuevo desafio para la Cosmologia y la Fisica


22

Fundamental. La interpretacion mas sencilla es: la constante cosmologica Λ, que

Einstein introdujo en 1917, para que su solucion a la eq.cosmologica fuera la

de un Universo estatico, sin expansion. Es necesario saber si esta constante, lo es

o si varia espacialmente, bautizada como el campo quintaesencia, Q,

En este caso, Λ, la energia del vacio es el resultado de un campo escalar, Q, que

interactua con otros campos via la gravedad.


——————————————

HISTORIA. DE LA TEORIA DE LA NUCLEOSINTESIS

La Ciencia de la NucleoSintesis esta restringida a trazar en el tiempo y el espacio,

la composicion quimica del Universo. Los primeros intentos para construir esta

teoria fueron dados por Meyer y Teller y por Gamow, Alpher y Herman,

para quienes la materia primordial (Hylem) eran agrupamientos de neutrones,

los cuales al desintegrarse en protones electrones y neutrinos, formarian a los

futuros nucleos.

Klein y Beskow sugirieron que el equilibrio nuclear estadistico, en ambientes

especificos, darian cuenta de las abundancias, pero fallaron en varios detalles

Las hipotesis basicas debidas a Weizsacker las restablecio Chandrasekhar:

aparte de efectos secundarios, la transmutacion de los elementos es la causa

completa de la presencia de todos elementos en las estrellas; ellos son sinteti-

zados continuamente en las estrellas, las que se supone que empezaron como

puras masas de Hidrogeno; mas aun, las transmutaciones nucleares son la unica
23

causa de la energia de las estrellas. La idea de que el equilibrio entre las especies

nucleares pudo ocurrir en algun tiempo y lugar en la evolucion estelar y que los

patrones de las abundancias asociadas pudieron persistir en la materia estelar,

cuando se dispersa en el espacio, es una idea antigua y atractiva.

1922, Friedman publico su solucion a la ecuacion cosmologica, que implica un Universo

en expansion. Tolman, estudio el equilibrio termodinamico entre el hidrogeno y el

helio como una posible explicacion de sus abundancias relativas.

En 1924 la idea que la distribución de las abundancias relativas de los elementos era

universal, William Harkins y Giuseppe Oddo, notaron que la distribucion de las

abundancias reflejaba sus propiedades nucleares, mas que sus propiedades químicas.

En 1927, el abate catolico George Lemaitre, publica su teoria del ”Atomo Primigenio”,

para explicar el origen del Universo.

-decia Gamow que en el trabajo de Lemaitre hay mucho lirismo y poco rigor-

En 1929, Edwin Hubble: mide las velocidades de las nebulosas extragalacticas, y de

ahi se deduce que el Universo esta en expansion.

en este año, son pioneros de la teoria de origen de elementos: Atkins y Houtermans

En 1930, Victor Goldschmidt publico una distribucion basada en la entonces bien esta-

blecida idea que las estrellas estaban hechas del mismo material, una conclusión astro-

física de la cual Cecilia Gaposhkin y Henry Norris Russell habian hecho contribuciones.

La grafica de abundancias, dada por Goldschmidt fue base de los trabajos de Gamow

1932: Einstein, y de-Sitter, publican una solucion a la ecuacion cosmologica de Einstein


24

1937 Weizsacker da su hipotesis de la estructuracion de los elementos y la predicciones

cuantitativas que siguen de esta hipotesis, investiga las reacciones nucleares en estrellas.

Pueden obtenerse de los hechos generales de los datos empíricos: abundancia-estabilidad

por el uso de reacciones termodinámicas en equilibrio, como las empleadas en reacciones

químicas.

En 1938 hubo una conferencia de fisicos nucleares y astrofísicos: sobre el trabajo de Bethe

ese año, Hans Bethe: publica ”Energy production in stars” donde da su explicación del

funcionamiento de las estrellas, en base a la fisica nuclear. ese año, Weizsacker, dio la

vision dominante: ”...ningun elemento mas pesado que el 4 He puede ser sintetizado en

una cantidad apreciable. Asi suponemos que los mas pesados fueron estructurados en las

estrellas” Dos de los problemas mas difíciles en la primera mitad del siglo XX, eran:

(1) la fuente de energia de las estrellas. y (2): el origen de los elementos quimicos.

El primero fue resuelto en 1938, cuando Hans Bethe y Weizsacker

encontraron los mecanismos nucleares que originan la energia enorme que emiten

las estrellas.

En 1939 el primer dilema fue resuelto cuando Hans Bethe y otros, formularon las

reacciones nucleares que dan origen a la energia que hace que funcionen las estrellas.

Los fisicos nucleares pusieron su atencion en las estrellas para resolver el 2o. enigma.

En este año, Donald Hughes dio un gran avance en este campo, recopilo secciones de

captura de neutrones a energias de1 MeV, para gran numero de elementos, al intentar

determinar la adaptabilidad de varios elementos para construir los reactores nucleares.

Lo interesante de los resultados de Hughes era: las secciones variaban inversamente


25

con los datos de las abundancias relativas, y mas aun, los datos exhibian secciones de

captura muy pequeños para núcleos con “numeros mágicos” , cuyas abundancias

eran grandes relativas a los núcleos vecinos. Esto sugirió una fuerte relacion inversa

entre las abundancias y las secciones de captura de neutrones.

1942 Chandrasekhar y Henrich: publicaron un trabajo pionero, titulado:

“Un intento para interpretar las abundancias relativas de los elementos y de sus isótopos”

ese año, Gamow sumo ideas de varias teorias: la imagen emergente de la energia estelar

resultante de los ciclos proton-proton y el del carbono-nitrogeno desarrollados por Bethe,

Weizsacker, Teller, Atkins y Houtermans, y por Gamow mismo. La confianza de que

la distribución de las abundancias relativas (respecto al Hidrógeno) de los elementos, era

uniforme al traves del cosmos,y mas particularmente, de la falla de las llamadas ”teorias de

equilibrio” para explicar las abundancias.

George Gamow y Lemaitre empezaron a desarrollar la teoria, conocida posteriormente

como ”La Gran Explosion”, (Big Bang) en la cual, los elementos de la

tabla periódica eran construidos por medio de la captura de neutrones por protones

minutos después del instante de tiempo cero, de la gran explosion.

En ese año, dio una conferencia en la academia de ciencias, en Washington, sobre otro

metodo: propuso que las abundancias podrían ser el resultado de un proceso de ruptura,

de no-equilibrio, en el cual un objeto superdenso original compuesto de materia nuclear se

fragmentaria semejante al atomo primigenio propuesto por Lemaitre, en 1927.

Asi los elementos mas pesados se formarian por reacciones de captura de neutrones, hasta
26

alcanzar el limite de estabilidad nuclear que se llega con el Uranio

y todo esto, en el contexto de las etapas primigenias del Universo en expansion.


Segun Chandrasekhar, si el Universo primigenio logro el T E en T ~10 10 K, y densidad
de 10 7 g/cm 3 , entonces las abundancias de los elementos ligeros serian ”congeladas” en
cocientes que concordaban con las observadas . Pero esto es en parte correcto, pues la
gran densidad de materia en esa epoca habria requerido de una rapida expansion para
evitar el colapso, y de esto, los calculos basados en el equilibrio no son apropiados.

1946 Gamow publica un trabajo pionero: ”el origen de elementos en el Universo en


expansion”

en ese, Gamow propuso otro metodo aun: calculaba, basado en la métrica del espacio-tiempo

de Robertson-Walker, la tasa de expansion de un modelo de Universo dominado por la


materia,
razono que a temperaturas suficientemente grandes (mayores que la energia del nucleon, la
densidad de energia del campo de radiacion debe haber sido mayor que la densidad de
energia
de la materia. En tal condicion, los fotones de la radiacion pueden romper cualquier nucleo.
Uso la abundancia calculada del Helio para predecir que, en esa epoca, la frecuencia de los
fotones
habria sido corrida hacia el rojo del espectro, hasta longitudes de onda milimetricas. Y noto
que los neutrinos serian tan numerosos como los fotones y jugarian un papel muy importante
y que la reaccion clave que dispararia todo,seria la captura de un neutron por un proton para

formar un nucleo de Deuterio (hidrogeno pesado).


#
Y concluyo que a altas densidades la tasa de expansion

habria sido demasiado rapida para poder permitir que se estableciera una distribución de
equilibrio.

Y que si las reacciones de captura de neutrones fueran primariamente responsables de


establecer

la distribución de abundancias, las cuales requerirían que hubiera muchos neutrones libres en
el

Universo primigenio, entonces el tiempo disponible para las reacciones termonucleares


habria sido

corto en comparación con la vida-media del neutron. Calculo que:

Una densidad de neutrones de: 10 30 cm −3 (~10 6 gr cm −3 ) existiria durante menos de 1 seg. en

una etapa primigenia, y porque los decaimientos-β que son necesarios para establecer las
27

igualdades apropiadas entre protones y neutrones, son medidas en minutos, es claro que el
tiempo

necesario para establecer el equilibrio con los neutrones, a las altas densidades requeridas, no

estaba disponible en el Universo primigenio en expansion. Esta demostracion hizo necesario

considerar los procesos de no-equilibrio.

El hipotetizo una materia comparativamente fria de neutrones que se coagulaban en


complejos

mas pesados los cuales a su vez ejecutando decaimientos debiles, moviendo hacia la region
de

estabilidad nuclear y asi estructurando a los elementos mas pesados.

La gran abundancia del Hidrógeno era considerada a ser el resultado de la competencia de


los

neutrones entre la coagulación y el decaimiento-beta del mismo.

En el Universo primigenio, no podria haber ocurrido a traves de procesos de equilibrio,


acompleto

esta demostracion por un calculo sencillo de las escalas temporales incluidas.

A su alumno Alpher le dio el tema de tesis: la formación, en no-equilibrio, de los elementos


por

captura de neutrones.

Pero en 1948, no se conocían las secciones nucleares de dispersión y sus calculos fueron

muy aproximados y dados a conocer en el famoso trabajo: ”alfa beta gamma”, de 1949.

Este mismo año, Gamow, Alpher y Bethe propusieron que todos los elementos

fueron construidos al capturar neutrones, minutos despues del Big Bang. Este fue el inicio de
la

teoria del Big Bang.


28

Correcciones criticas a su teoria fueron hechas por Chushiro Hayashi, Enrico Fermi

y Anthony Turkevich que condujeron al trabajo seminal de 1953 (Phys.Rev. 92,1347)

donde describen correctamente la síntesis de grandes cantidades de Helio, y poco

de los demas elementos;

En 1950, Hayashi noto que la hipotesis de materia neutronica inicial, era incorrecta.

El campo de radiacion, a T > 10 9 K, genera pares e- e+ que sirven para mantener el

equilibrio entre neutrones y protones, Chandrasekhar, en 1942 ya habia notado esto

y que a estas temperaturas, ambas particulas estan en dicho equilibrio, debido a las

interacciones-debiles: e − + p ⇆ n + ν e

Fermi noto que las barreras de la repulsión electrica coulombianas y la falta de núcleos

estables con masas 5 y 8, evitaban una síntesis significativa mas alla del 4 He. Esta teoria

entonces, requeria de un principio muy caliente.

En 1949 Gamow: prediccion de la radiacion cosmica, con una temperatura de 5 Kelvins

Alpher y Herman predijeron que los fenomenos fisicos posteriores a la BB, habrian dejado

una radiacion de reliquia de microondas, conocida ahora como ”radiacion cosmica del
fondo”

(CMB, cosmic microwave background, siglas en Ingles)

Al presentar su tesis, Alpher inicio una interaccion con otros fisicos que condujeron a una
sucesión de

resultados muy diferentes a como los esperaban, como experto en fisica nuclear, Fermi, en
un seminario

de Alpher, elevo una objeción técnica respecto al metodo empírico de Alfer, Fermi le dio a
su alumno

Turkevich, que rehiciera el calculo de Alpher, usando valores para las secciones de captura,
29

y mostrando lo que Gamow y sus alumnos sabian y admitian en privado, que su mecanismo

no produciria nada mas pesado que un núcleo de masa 4, a partir de neutrones.

Fermi invito a su amigo Martin Schwartzchild para obtener evidencia observacional de la


formación de

elementos pesados en las estrellas. En un trabajo clásico en 1950, midieron el debil espectro
de dos

grupos de estrellas, del mismo tipo estelar, encontraron evidencia de produccion de metales
durante

la vida media de la galaxia. Ya solo quedaba la barrera de masa-5 a ser resuelta.

Schwartzchild le dio este problema a un joven físico nuclear: Edwin Salpeter, se puso a
trabajar y en

1952, vio que el Berilio-8, inestable como es, puede estar presente en los centro caliente de
las

gigantes rojas, en suficiente cantidad para proveer un conveniente puente de paso para la

formación del Carbono-12, a traves de la adicion de un núcleo de 4 He.

Ahora, con estos dos problemas resueltos, el triunfo de la formación estelar de materia
parecia

completarse, derribando la teoria de Gamow, pero.....

el descubrimiento, por Merrill en 1952,del elemento Tc en estrellas-S,sirvio como una


demostracion

de que el proceso nuclear lento(s-process) es basico para la sintesis en las estrellas.

Pero permanecia el problema del Helio, las estrellas son deficientes como productoras de He

por un factor de hasta 10. Esto llevo a Hoyle y Tayler a revivir la posibilidad de una sintesis

primordial del helio: las ideas de Gamow

en 1953 Alpher, Herman y Follin, incorporaron, en su trabajo basico, el proceso mencionado


de
30

la produccion de pares electron-positron, e- e+.

Cerca de 1956, los astrofisicos encontraron que las estrellas de diferentes poblaciones
difieren

ampliamente en su contenido metalico, y el concepto de la ”sintesis universal” fue


abandonado

en favor de la nucleosintesis estelar

En 1957, Hoyle desprecio todas las teorias pre-estelares de la síntesis como ”requiriendo de
un

estado del Universo del cual no tenemos evidencia”.

Pero la curva de las abundancias, no es sencilla, tiene picos y valles

Este año se publica el clasico trabajo BBHF sobre la nucleosintesis en las estrellas

Fred Hoyle, los esposos Burbidge y William Fowler, e independientemente por

A G Cameron, demostraron que esencialmente todos los elementos mas pesados que el

4
He pueden ser hechos en las estrellas, pero bajo condiciones diferentes a las que otros

astrofisicos como Weizsacker habian considerado.

Burbidge, et. al.[BBHF 1957], presentaron al menos siete procesos separados para dar
explicación de los

datos. Irónicamente, fue Hoyle mismo quien encontro un gap que no podria ser llenado en la

teoria estelar, un gap en el proceso mejor entendido de todos: la formación del He a partir
.
En 1959, Shvartzman demostro que la NS nos da informacion sobre el numero de

neutrinos y que los gravitones, no tienen tiempo de entrar en equilibrio con la mate-

ria primordial: a menor trayectoria libre, hay mas interacciones y mayores abundan-

cias, esto es: menor tiempo entre las interacciones.


31

Un año:1964, antes del descubrimiento de la CMB, Hoyle y Roger Tayler predijeron que

la abundancia del Helio era del 25% (por masa) y sugirieron que la explicación la daba una

teoria basada en una explosion original, reviviendo las ideas de Gamow de 16 años antes.

Luego del decubrimiento de la CMB por Penzias y Wilson, en 1965; los calculos teóricos

fueron refinados por PJE Peebles, Robert Wagoner, Fowler y Hoyle,

explicar la gran abundancia primigenia del helio fue un gran triunfo de la teoria de la caliente
gran

explosion (hot big bang ) de Gamow.

Hoyle concluyo que cerca del 90% del He contenido en las estrellas debe haber sido

sintetizado antes del nacimiento de la galaxia. La base para esta conclusion fue un ar–

gumento de energia: La cantidad total de energia liberada en la formacion de todo el He

observado es ~10 veces mayor que la energia radiada por las galaxias desde su forma-

cion. Asi, ”es dificil suponer que todo el He ha sido producido en las estrellas ordinarias”

[Hoyle y Tayler, 1964. En lugar de esto, se dirigio la atencion a la formacion del He en

las etapas primigenias del Universo en expansion. Reviviendo asi las ideas pioneras de

Gamow, de 16 años antes.


.
Hoyle y Tayler: dieron la clave de la produccion del Helio, un año antes del

descubrimiento de la CMB, ellos calcularon una abundancia del 4 He: 25 % y sugirieron

una explicacion basada en la HBB.

Muchos de los detalles de las abundancias observadas de los elementos

fueron explicadas en terminos de los procesos nucleares en las estrellas.

Pero un problema principal permanecia: el origen del Helio.


32

Las estrellas, parece, que son deficientes como productoras de la actual

abundancia de Helio galactico, por un factor de hasta 10. esto llevo a Hoyle

a revivir la posibilidad de una sintesis cosmologica del helio

(las ideas de Gamow) e hicieron una revision de las concentraciones observa-

das en varios objetos astronomicos variando desde alrededor de 27% en el Sol

hasta mas del 40% en algunas nebulosas planetarias, y sugirieron que la concen-

tracion del He nunca puede ser baja, aun en las estrellas mas viejas.

En 1965 Penzias y Wilson descubren la radiacion cosmica de microondas

este año, Robert Dicke interpreta el descubrimiento de Penzias y de Wilson, en terminos

de la Cosmologia del Universo en expansion. J. Peebles calcula la abundancia del Helio

En 1966, los calculos basados en la teoria del HBB fueron refinados por James Peebles

quien empleo las secciones nucleares eficaces de las interacciones nucleares-debiles,

de las particulas p, n e, ν, calculadas por medio de la teoria Vector-Axial (debida

a Richard Feynman y a Murray Gell-Man) de dichas interacciones

En 1967 Robert Wagoner, William Fowler y Hoyle, quienes explicaron teoricamente la

abundancia primigenia del 4 He, y esto fue un triunfo impactante de la teoria de la

HBB [luego bautizada como: Standard Big Bang NucleoSynthesis, (SBBN);

y efectuaron el primer calculo sistematico de las abundancias, hasta el Carbono C 12 ,

en el marco de un Universo de Friedmann, homogeneo e isotropico, y en expansion des-

de un estado muy denso y muy caliente, emplearon un codigo Fortran de computadora,

que incluye a 64 reacciones nucleares y hasta 18 elementos quimicos.


33

Estas concentraciones o abundancias, eran explicables sobre un rango de un parametro

de densidad: h, desde 10 −4 hasta 10 −2 , a muy altas temperaturas.[en notacion de Wa-

goner, la densidad de Bariones es ρ b = h T 39 gm/cm 3 , (convencion: T 9 = 10 9 K)]

10 −6 ≳ h ≳ 10 −7

Esto cubria casos desde un Universo de Friedmann con h ≈ 10 −4 hasta estrellas masivas

con M ≳ 10 6 M ⊙ .El interes en este caso fue estimulado por el descubrimiento,

de la Radiacion Cosmica del Fondo (CMB) con una T de 2.73 K.

Puesto que la densidad de bariones,en promedio, no puede ser menor de ~3x10 −3

o mucho mayor de ~3x 10 −29 gm/cm 3 , hasta la epoca actual, la determinacion de

esta T, llevo a Peebles, en 1966, a concluir que h cae en el rango de:10 −5 -10 −3

y encontro que si h ≈ 3x10 −5 conduce a una abundancia de ~27%

Ya en los 1970’s, se dieron cuenta que se restaura la simetria de norma a

una temperatura critica T c , y que tan grande T c (del orden de 250 GeV para la transicion

electro-debil) habia ocurrido en el Universo primigenio en el modelo BBN,

y varios fisicos de particulas sintieron que tenian que aprender acerca del Universo
primigenio

y de sus transiciones de fase.[ver capitulo de Eras del Universo]

En 1973, Hubert Reeves, Jean Adouze, Fowler y David Schramm, pusieron su atencion en el

deuterio, cuya produccion depende sensiblemente de la densidad de la materia ordinaria

(barionica). Su razonamiento, junto con la deteccion del D en el medio interestelar, condujo


a

un limite superior para la densidad barionica, de no mas de 10 % de la densidad critica del

Universo.
34

Mas aun, la SBBN empezo a jugar un papel importante en comprobar a la física


fundamental:

la física de particulas elementales. En un trabajo influyente , en 1977, Gary Steigman,


Schramm

y James Gunn, usaron a la produccion del 4 He para restringir el numero de las especies de

neutrinos; y esto ayudo tambien a unir los campos de la Cosmología y la Física de Particulas

En el principio de los 1980’s, las abundancias primordiales de los elementos ligeros: D, 3 He

4
He y 7 Li, habian sido determinadas y la concordancia de las predichas con las medidas,

se uso como prueba de la teoria del HBB, y como medio de restringir a la densidad barionica

El modelo HBB se convirtio en la Cosmologia Estandar y la HBB uno de sus cimientos.

Y mas aun, la HBB comenzo a jugar un papel importante en poner a prueba a la Fisica

fundamental de Particulas Elementales.

En 1998, la primera medicion precisa del deuterio primordial, por David Tytler y Scott
Burles,

marco el inicio de una epoca de precision para la teoria HBBN.

Esta teoria fija a la densidad barionica con una precison de 7 %, y a su vez, lleva a
predicciones

exactas de las abundancias de los otros elementos ligeros.


————————————————————————

Sintesis y abundancias de los elementos quimicos

INTRODUCCIÓN HISTORICA

Con el establecimiento de la Fisica Cuantica, la Fisica Nuclear y la Teoria de la

Gravitación, en los años 20’ s, del siglo XX, los científicos pudieron dar una teoria
35

del origen y evolucion del Universo, Hans Bethe, explico ¿de que procesos fisicos

nucleares las estrellas emiten su colosal energia? en todas las octavas del espectro

electromagnético: luz visible, los rayos: X, infrarrojos, ultravioleta, etc.

Habian especulaciones, a finales del siglo XIX, debidas a Helmholtz, Kelvin y

Norris Russell, sobre la necesidad de otra fuente de energia que no fuera química

o electromagnetica o gravitacional, Rutherford, Perrin, Jeans y Eddington sugirieron

que procesos nucleares eran la causa. este ultimo establecio los fundamentos

modernos para resolver el problema.

Reconocio los trabajos de Aston sobre la espectroscopia de masas nucleares, las cuales

demostraron que 4 nucleones de hidrógeno son mas pesados que un nucleo de helio

y ya habian efectuado en los laboratorios nucleares, las transmutaciones, que son, p.ej.

transformar una especie de núcleo, en otro, mediante bombardeo con protones y neutrones

los núcleos capturan ambas particulas y cambian en un núcleo mas pesado.

O el choque hace que un núcleo se fisione,o se rompa, hacia uno menos pesado.

Otros pioneros fueron Atkinson y Houtermans quienes aplicaron la teoria de la penetración

de barreras electricas, [que fue investigada por Gamow, y se basa en la Física Cuantica]

al problema de la reacciones termonucleares en las estrellas.

ABUNDANCIAS DE LOS ELEMENTOS QUÍMICOS Y DE SUS ISÓTOPOS.

No hay una verdadera “cósmica” o “ universal” distribución de la abundancias de los

elementos, el establecimiento de una muestra relativamente “ normal”

es esencial para principiar en revelar los origenes de los elementos y para establecer

las anomalias en las abundancias.


36

Las abundancias en los meteoritos y en el Sol y estrellas similares, fueron estandarizadas por

Harold Urey y por Hans Suess, en 1956, en un análisis profundo basados en una mezcla de
datos

observacionales, geológicos y astronomicos; y de la sistematica nuclear empírica.

Para las abundancias químicas relativas, los meteoritos son considerados como una muestra

mas representativa de, al menos, algo del material del sistema solar primordial.

Las medidas experimentales se basan no solo en medidas químicas, sino en técnicas de

activacion de neutrones y en medidas de fracciones anomalas de isótopos, por la tecnica

de la espectroscopia de masas, hechas en 1963

Las abundancias solares:

El espectro de radiaciones solares ha sido analizado con detalle muy preciso,

para medir las abundancias relativas (respecto al Hidrógeno) en la fotosfera

solar, esto lo hicieron: Goldberg, Aller y Muller, en 1960, y en 1958 midieron las
abundancias en

estrellas de población I y II, y encontraron que no difieren mucho de las de nuestro Sol.

Abundancias anomalas

Existen abundancias anomalas, en muchas estrellas. estas sugieren diferentes mecanismos y

circunstancias para la nucleosintesis, estas medidas las hicieron los esposos Burbidge,

en 1957; y son citadas como una indicación de síntesis reciente de elementos pesados

en estrellas gigantes como la BaII HD 46407, debida a un proceso de captura de neutrones,

a lo largo de una escala grande de tiempo.[proceso lento, o: s-proceso]

Un conocimiento del ambiente astronomico es crucial para la formulacion de las hipótesis


37

de la N.S. y de su prueba experimental.

Observaciones Astronomicas y la Evolucion Estelar.

El conocimiento del ambiente astronomico es crucial para la formulacion de las hipótesis de


la

nucleosintesis y de su prueba experimental.

La formulacion basica de las ecuaciones que describen el cuasi-equilibrio en el interior de las

estrellas fue dada por Martin Schwartzchild, en 1958.

El lento proceso de la evolucion de la estrella cuando sus reservas de energia son utilizadas

sucesivamente, es basico en el problema de la NS, y fue detallado por los esposos Burbidge

y por: Hayashi, Hoshi, Sugimoto, en 1958 y 1962. quienes dieron un tratamiento detallado

de las pistas evolutivas de 3 estrellas representativas desde la secuencia pre-principal, de

contracción mediante la combustión del hidrógeno, helio y carbono con una discusión

cualitativa del desarrollo posterior hacia la etapa de enana blanca.

Calculos detallados evolutivos de estrellas con masas de: 0.5 a 15 masas solares, fueron

dadas por Icko Iben, en 1965 y 1967.

EVOLUCION ESTELAR

El lento proceso de la evolucion de una estrella cuando sus fuentes de energia son usadas,

es descrito en varios textos, inicialmente en el de M. Schwartzchild, de 1958.

y en el trabajo de C. Hayashi y R.Hoshi, de 1962

Supernovas

De gran importancia para el concepto de la redistribucion de elementos sintetizados,

es la explosion de las supernovas.


38

La base mas directa experimental para las teorias de la NS, esta en las medidas en el

laboratorio, de las tasas de reacciones nucleares con energias de choque que se aproximen a

las esperadas en al ambiente astrofísico.

En las estrellas, las energias termicas de protones, tan bajas, como de 10 a 20 kilo-eV, son

efectivas, pero en el lab, las medidas pueden extenderse hasta menos de 100 KeV.

Varios fisicos nucleares, entre ellos William Fowler, midieron, en 1950 a 1967, las
pertinentes

secciones transversales de choque y de absorción de neutrones,

NUCLEOSINTESIS UNIVERSAL

La NS puede ocurrir en las etapas primigenias de un Universo en expansion antes de la


formacion

de estrellas y galaxias, las teorias cosmologicas de Einstein, Friedman, y de


Robertson-Walker,

y su aplicacion por Richard Tolman, nos dan una estimación de las altas temperaturas y
densidades,

bajo las cuales esta síntesis se efectuo.

Los pioneros en estas ideas, fueron: Weizsacker, en 1937; y George Gamow, en 1946.

quien reconocio que la distribución de abundancias relativas, parecia reflejar a las secciones

transversales de captura de neutrones; y noto que los neutrones libres constituirían una gran

fraccion de la materia nuclear a altas temperaturas y densidades.

Asi, durante la etapa, o era, de la Gran Explosion del Universo expandiente, los neutrones
decairian

en protones, y por sucesivas capturas de neutrones por los protones, comenzando

con la reaccion:

neutron + proton → deuteron + foton de radiación, o: n + p → d + γ


39

simbolizada mas breve por la notación: H(n, γ)D, resultaria en la síntesis de todos los
elementos.

Esto lo completaron: Alpher, Bethe y Gamow en 1948.

La idea esencial era que dada una concentración inicial, en equilibrio, de neutrones y
protones, se

fusionarian en deuterio tan pronto como la temperatura del Universo cayera por

debajo de la energia de amarre del deuteron, y este entraria en una serie de reacciones que

producirían los demas elementos mas pesados. Pero Fermi noto que como no hay un núcleo

estable con A = 5 y 8, y las barreras electricas “ Coulombianas” de repulsión, bloquearian la

nucleosíntesis, cuando la temperatura cae.

Entonces el énfasis se enfoco en hacer calculos detallados de la formación de núcleos ligeros,


en

particular, del Helio.

La cantidad formada, de D y de He era gobernada por el cociente del numero de neutrones

al numero de protones: n /p, en el tiempo correspondiente a la temperatura de captura a la

cual el D podria ser formado, Alpher y Herman calcularon este cociente, en 1950, y
supusieron

que el unico efecto que causa el agotamiento de los neutrones era su inestabilidad

por causa del decaimiento-beta, y es un efecto pequeño. El principal efecto en la


interconversion de

neutrones y protones, es la dispersión inelástica de neutrinos (ν), por nucleones,

por ejemplo: ν e + n → e − + p.

Hayashi, en 1950, encontro que el cociente n/p = 0.25 aproximadamente, y el valor actual es
0.12.

En 1953, Alpher, Follin y Herman rehicieron el calculo de Hayashi con mayor detalle.
40

Analizaron como el resultado depende de la vida promedio del neutron, y encontraron un


valor

entre 0.22 y 0.17.

Pero no tomaron en cuenta la teoria del decaimiento debil, desarrollada por Enrico Fermi

posteriormente. Pero en 1964 y 1966, Hoyle, Tayler y Peebles incluyeron tal teoria en los
calculos.

En 1969, Shvartsman sugirió que la presencia de varias particulas exoticas en el Universo

primigenio podria cambiar la cantidad del Helio primordial, pero no comento sobre el uso de
la tasa

de producción observada, para limitar el numero de tales particulas y tambien para limitar el

numero de neutrinos. Este paso lo tomo Peebles, en 1971, pero habia fallas en la teoria de
Hayashi,

y en 1953, Alpher, Follin y Herman, la mejoraron, incluyendo un análisis de la Interaccion-

debil que transmuta el neutron en un proton, un electron y un neutrino

Bajo la hipótesis que la densidad primigenia a una temperatura dada era similar a la que

ocurria en el interior de las estrellas, se demostro que la reaccion: 3 He 4 → C 12

podria “ hacer de puente” los gaps de masas en A=5 y 8, pero no resultaba la síntesis mas alla

del Neon-20.

Tambien Hayashi,y Nishida, en 1956, estudiaron este aspecto de la NS.

El interes en la posibilidad de la NS pre-estelar fue reconsiderada en 1964, por Hoyle y


Tayler

que reconsideraron las ideas de Gamow y sus colaboradores, al observar que el Helio

es mas abundante que lo que se espera de la nucleosíntesis estelar

Probaron que un cociente de las abundancias He / H , de aproximadamente 1/3, es producida,


41

bajo hipótesis razonables, durante las condiciones que siguieron a la ”gran explosion”,

[los 3 minutos siguientes al instante inicial, t = 0]

Mas aun, habia evidencia de una radiación termica (llamada: radiación cósmica del fondo)

que surgia de una centella (fireball) primordial, que el mismo Gamow predijo.

En 1965, los radioastronomos Penzias y Wilson encontraron una radiación de fondo que
venia

de todas las partes del Universo, y tenia una temperatura de 3 grados Kelvin, que tenia

una distribución de Planck, (de radiación de cuerpo negro), y una longitud de onda de 7.3
cm.

Análisis y calculos mas complicados mostraron que solo los elementos D, 3 He, 4 He y 7 Li

pueden ser producidos en la etapa de la Nucleosintesis primigenia.

En 1967, Wagoner, Fowler y Hoyle, analizaron los resultados de la NS a muy altas


temperaturas

posibles solo en la primordial explosion, o en los “rebotes” calientes en las

estrellas supermasivas. En conexión con la discusión de la síntesis pre-estelar, actualizaron

los calculos de Fermi, aunque la producción del Helio era de 25 a 30 % para todos los

modelos razonables, sin considerar la degeneración de los neutrinos.

SINTESIS ESTELAR

En 1939 cuando la Física Nuclear habia madurado, Hans Bethe describio cuantitativamente

las reacciones nucleares mas importantes que gobiernan la generación de energia en las

estrellas, limitado todavía por inadecuados datos astrofísicos, fue el pionero en ese tema.

Otro paso gigante en el entendimiento de la NS vino de “ puentear” el gap de la masa 5 y 8

esto lo hizo Edwin Salpeter, con la reaccion de 3 nucleos de He 4 hacia el C 12 .


42

El noto que esta reacion puede proceder a temperaturas relativamente bajas en helio puro y

a muy alta densidad. El Berilio-8 es inestable a romperse en 2 particulas alfa y el cociente

[de equilibrio] de Be/He es muy pequeño aun a muy alta T. Pero es suficiente para permitir

la producción del Carbono-12, a traves de la reaccion: Be 8 + He 4 → C 12 ,

especialmente en vista de la resonancia, en la seccion transversal, asociada con un estado

excitado en el Carbono-12.

El primer tratamiento completo de la NS mas arriba del Carbono hasta el niquel, lo describio

Fred Hoyle, en 1954, razono que la reaccion 3 He 4 → C 12 , procedia al traves

12
de un estado excitado en el C, y predijo una energia de excitación de 7.68 MeV para

el estado de energia relevante del carbono, experimentalmente medido a ser: 7.65.

En vista de la dificultades asociadas con la síntesis pre-estelar y los desarrollos exitosos en la

sintesis estelar ya descritas se concentro la atención en el interior de las estrellas como el


asiento de

la NS, este esfuerzo pronto resulto en establecer los principales mecanismos

esenciales a la NS estelar, incluyendo a los elementos pesados y fue descrito por el trabajo de
los

esposos Burbidge, y por Hoyle y Fowler., en 1956, en la revista Science.

En 1957 estos mismos astrofísicos, dieron una discusión detallada de los procesos relevantes
en la

NS en las estrellas, analizaron la combustión del H y del He, el proceso-alfa, produccion de

neutrones, el proceso de equilibrio, o: e-proceso, procesos de captura de neutrones en las


escalas

temporales lenta y rapida: proceso-s y proceso-r, y el proceso-x, para la síntesis de los


núcleos

ligeros. Discutieron la teoria astrofísica y las observaciones astronomicas que son relevantes
43

a esos

procesos.

COMBUSTION DEL HIDROGENO

Las ideas basicas incluidas en la fusion del H hacia el Helio en la cadena de reacciones

proton-proton, o en el ciclo CNO, habian sido dadas en 1957, y en 1962 Caughlan y Fowler

mejoraron los calculos usando experimentos e ideas teoricas mas recientes, en su trabajo:

“las vidas promedio de los núcleos de: C, N y O, en el bi-ciclo catalitico C-O-N “

el analisis de los datos y el calculo de las vidas promedio de los nucleos asociados con esas

reacciones, estos valores determinan las abundancias relativas de los núcleos, bajo
condiciones

de equilibrio.

La determinación de la temperatura del centro del Sol, por la detección de los neutrinos

solares en la superficie de la Tierra, la discutio John Bahcall en 1964. y R.Davis sugirió

un experimento para detectarlos.

En 1941, Gamow y Schonberg habian dado una teoria del coplapso estelar, basada en los

neutrinos.

En 1948, los colaboradores de Gamow desarrollaron una teoria evolucionista del Universo

basada en la hipótesis del abate Lemaitre, que el Universo comenzo su vida a partir de un

estado muy comprimido y caliente, desde el cual se expandio: la gran explosion,

bautizada ironicamente asi, por Hoyle, quien proponia su teoria rival, del estado estacionario

COMBUSTIÓN DEL HELIO EN LAS ESTRELLAS

El proceso basico de dicha combustión, 3 He 4 → C 12 , la analizo Salpeter, y ocurre cuando el


44

H en el centro, se ha conviertido en Helio y la estrella se contrae elevando la temperatura


central.

Este proceso es seguido por otras capturas de particulas-alfa sintetizando: C 12 y O 16

predominantes, con algo de Ne 20 y Mg 24 , producidos en las etapas finales bajo condiciones

apropiadas. En una estrella de ultima generación (población I ), la combustion nuclear toma


lugar en

el Helio adulterado con elementos pesados y otras reacciones tienen lugar. Si hay una alta

degeneracion de los electrones en el centro, la combustión eleva la temperatura sin causar

expansion.

Y este calentamiento incrementa la tasa de reacciones hasta que la fuente de energia se


agota.

Esta etapa acaba cuando el centro se hace no-degenerado a cuyo tiempo el centro se expande
y se

enfria. Este “ flash de Helio” fue descrito por M. Schwartzschild en 1962.

COMBUSTIÓN DEL CARBONO,DEL OXIGENO Y DEL SILICIO

La combustión del H ocurre a una T del orden de 10 7 , y la del Helio a T del orden de 10 8 .

Cuando la T central de una estrella es mayor que 6 x 10 8 debido a la contraccion


gravitacional ,

el carbono puede comenzar a combustionarse a traves de las reacciones:

20
12
C+ 12
C→ 23
Na + 1 H Ne + 4 He

13 17 21 23
y posteriores capturas radiativas para formar: C, O, Ne, y Mg

14 16 20 23
y tambien N, O, Ne, y Na junto con un numero apreciable de neutrones.

Posterior combustión a temperaturas mucho mas altas ocurre para el Oxigeno, con la

28
producción de los isótopos de Mg, Al, Si, P y S, con el Si, la especie nuclear mas
45

abundante. Cuando la temperatura alcanza los 3 x 10 9 K, empieza la combustión

28
del Silicio. Los núcleos de masa intermedia alrededor del Si son parcialmente

foto-desintegrados para producir un suministro copioso de particulas-alfa, protones y

neutrones los cuales son capturados por los restantes núcleos de masas intermedias para
formar

los isótopos precursores del grupo del hierro.

La importancia de las particulas alfa y de los núcleos-alfa (A = 2 Z = 4 n ) conduce a la

anterior designación de la combustión del Silicio como el proceso alfa.

La inclusión de las perdidas de neutrinos y una discusión de la combustión del Oxigeno,

en las estrellas masivas, fue dada por [Fowler y Hoyle, 1964]

EL PROCESO DE EQUILIBRIO

La combustión del Silicio termina cerca de los 3.8 x 10 9 K, con la producción de los
precursores

radiactivos del grupo del hierro durante el corto estado de pre-supernova de la evolucion
estelar.

Los procesos nucleares fuertes tienen lugar en quasi-equilibrio.

Los procesos de interacciones nucleares debiles, captura de electrones por núcleos, y emisión
de

neutrinos en la aniquilación de par electrón-positron, juegan un rol principal en

determinar las abundancias relativas de los núcleos del grupo hierro, últimamente eyectados
en la

explosion de la supernova.

28
Las transformaciones nucleares desde el Si al grupo del hierro, la dieron Truran y
Cameron, en

1966. y por Bodansky, Clayton y Fowler, en 1968.


46

LOS PROCESOS DE NEUTRONES

En las estrellas de población II, la combustión del helio puro procede al traves de la reacion
3 4 He → 12 C

En estrellas de poblacion I, despues que el Hidrógeno en su centro ha sido agotado y la

temperatura se ha elevado, el He puede interactuar con los núcleos ligeros, por medio de las

13
reacciones (α, n): C(α, n) 16 O, etc.

pueden entregar cantidades numerosas de neutrones. Y estos no encuentran las barreras


repulsivas

electricas y pueden interactuar con núcleos medios y pesados fácilmente, asi construyendo

núcleos mas pesados.

13
La reaccion C(α, n) 16 O es una fuente de neutrones en estrellas gigantes rojas, y estos

son capturados subsequentemente por núcleos-semilla para construir núcleos mas pesados.

especialmente aquellos con capas de neutrones cerradas.

Los detalles de la estructuracion de los elementos pesados por captura de neutrones ,depende
de

la escala temporal del proceso. Cuando estas capturas son tan poco frecuentes que los

decaimientos beta pueden ocurrir antes de una nueva captura, este proceso es llamado

lento, o proceso-s (slow), y la trayectoria de la estructuracion corre por la linea de


estabilidad de

los isótopos que proceden hasta el Polonio y Bismuto en donde termina por decaimiento-alfa
hasta

los isótopos del Plomo.

En condiciones como las que existen justo antes de la explosion de la supernova, la densidad
de

neutrones puede ser lo suficientemente grande, tal que la captura de neutrones, es rapida y el
47

decaimiento-beta puede solo ocurrir en aquellos núcleos donde las reacciones (n,γ) y (γ ,n)

llegan al equilibrio. Asi, el proceso rapido: “proceso- r” sigue una trayectoria diferente de
captura

de neutrones que el proceso-s, y procede atraves de isótopos ricos en neutrones de los


elementos

transuránicos que no son inestables al decaimiento-alfa

La síntesis termina eventualmente por fisión inducida por neutrones, o espontáneamente.

cerca de núcleos con numero de masa A ∼ 280.

Subsecuente decaimiento-beta resulta en la producción de los isóbaros beta-estables, a cada

numero de masa atomica. La existencia de los isótopos naturales radiactivos del Uranio y
del

Torio requiere un mecanismo de este tipo.

254
La producción del Cf, en la primera prueba de una bomba atomica, en Eniwetok, en 1952

fue una prueba experimental de la estructuracion por rapida captura de neutrones.

Procesos de Protones

Los isótopos ricos en protones de muchos de los elementos pesados no pueden construirse

por ambos procesos: el r y el s. Las reacciones postuladas para sintetizar esos isótopos

son (p,γ) y la (γ,n) sobre materiales ya construidos por procesos de captura de neutrones

tales reacciones pueden tomar lugar en explosiones de supernova

SÍNTESIS DE LOS EMENTOS LIGEROS

El deuterio, D, 3 Helio y los isotopos del Litio, Berilio y Boro, son destruidos por los

procesos termonucleares en el interior de las estrellas. La presencia de estos nucleos raros

se atribuye a la sintesis por procesos de espalacion [ruptura] en materia a una T


48

suficientemente baja de modo que reacciones termonucleares no ocurren. Las superficies

de las estrellas y las nebulosas de las cuales se forman los planetas han sido propuestas

como sitios posibles de esos procesos de ruptura. Son requeridos tambien procesos

secundarios que incluyen a neutrones o una combustion nuclear.

COSMO-CRONOLOGIA NUCLEAR

La NS esta intimamente interconectada con la cronología de los sistemas astronomicos.

La radiactividad produce una escala temporal para los eventos astronomicos.

El uso de la radiactividad en la geocronología comenzo con un trabajo de Rutherford,

el uso su conocimiento de las 3 series naturalmente radiactivas para deducir la edad de

la Tierra y de la epoca de la formación de los elementos, esto lo publico en 1929,

usando las medidas de Aston de los isótopos del plomo, calculo la edad de la Tierra

a ser alrededor de: 3.4 x 10 ∧ 9 años, una cifra muy cercana al valor actual.

LA EDAD DEL Universo

La cronologia del Universo es un problema clave en la Cosmologia. La determinacion

de la constante de Hubble a partir de los corrimientos-al-rojo de las lineas espectroscopicas

de la luz de las galaxias establece una escala temporal para estimar la edad del Universo.

Y esta depende de si la tasa de expansion se ha acelerado o desacelerado.

Sobre la base de las medidas actuales, el reciproco de la constante de Hubble cae en un

rango de (10—13) x10 9 años: o sea 10,000,000,000 años. Y los varios modelos

cosmologicos evolutivos dan edades desde 6 hasta 20 x 10 9 años.

La edad de los clusters estelares en la galaxia

la energia de fusion disponible y su razon de liberación determina la vida media de las varias
49

etapas

de la evolucion estelar. Esto ha conducido a la determinacion de las edades de los clusters

globulares y galácticos en la galaxia.

La epoca de la formación de los elementos

Calculos basados sobre la síntesis, en el proceso-r, pueden ser usados para estimar la
producción

232 235 238


relativa del: Th, U, y U en explosiones de supernovas a traves de la historia de la

galaxia. Las abundancias relativas de estos núcleos pueden ser usadas para determinar la
duración

de la formación de un elemento en la galaxia, antes de la formación del sistema solar.

LA EDAD DE LA TIERRA Y DE LOS METEORITOS

El decaimiento radiactivo ha sido usado para medir la edad de las rocas terrestres y de los

meteoritos y asi inferir una edad minima del sistema solar.


——————————————–

PROCESOS FISICOS SUCEDIDOS DURANTE UNAS ERAS EN LA


EVOLUCION PRIMIGENIA DEL Universo

1a. Epoca
Cuando t =0.01 s, T ~10 11 K, (la que es mayor que el umbral para la produccion

de pares: e- e + ), y la energia era de ~10 MeV, y todas las particulas estaban en

equilibrio termico, esto es decir que estas interactuaban con suficiente frecuencia

a lo largo del volumen del Universo de ese tiempo. Las interacciones a que nos

referimos son la nuclear-debil, ejemplo: n + ν ⇆ p + e − .

Este equilibrio (T.E.), cuando se refiere a los bariones, fija al cociente:


50

(numero de neutrones)/numero de protones): N(n)/N(p) = (n /p)

La relacion es dictada por el cociente de dos distribuciones de Boltzman:

n /p = exp{-Q/kT} = 0.878 ~1, cuando kT = 10 MeV.

donde Q es la diferencia de masa entre neutron y proton, (Q = 1.293 MeV)

[Se tomo la aproximacion de que los potenciales quimicos, del neutron y del

proton, son iguales, y se cancelan al tomar el cociente. Al ser mas masivo el

neutron que el proton, esto implica que hay mas protones que neutrones, y

esto tiene consecuencia en las abundancias del helio y del deuterio.

Asi el Universo seria diferente si el proton y el neutron tuvieran la misma masa

[Hogan: Rev.Mod.Phys. ”Why the Universe is so”]

La condicion de T E demanda una rapida tasa de reacciones, y esta tasa es

proporcional a la seccion de choque σ, y a la densidad de las particulas interac-

tuantes, N, y a la velocidad con que chocan o se dispersan. Estos factores de-

penden de la temperatura T:

σ ~ T2 N ~T 3 o sea, la tasa Γ~ T 5

En tanto que esta tasa es mayor que la tasa de la expansion, el criterio de reac-

ciones rapidas se mantiene.

La tasa de expansion es el cociente 1 dR =H


R dt
51

donde R(t) es el factor de escala, y H, el parametro de Hubble.

y por la ecuacion de Friedman, la tasa de expansion es proporcional a la densi-

dad de energia del Universo, esta densidad es a su vez proporcional a T 4 , asi:

H ~T 2 , asi al bajar la T, tiene un efecto mas grande sobre la tasa de reacciones

que sobre la tasa de expansion, pues T 4 >T 2 , y si las reacciones son inicialmente

mas rapidas que la expansion, entonces habra una temperatura de equalizacion:

Teq , cuando ambas tasas son iguales.

Este evento es llamado el ”freeze-out” (exclusion), y cuando esta T de umbral se

cruza, el valor de equilibrio del cociente: n /p ya no se mantiene, sino queda fijo.

[Los neutrinos son importantes pues afectan la tasa de las interacciones debiles,

las cuales actuan en la transmutacion de neutrones en protones]

[La vida-media de neutron es un modo de parametrizar la intensidad de la inter-

accion debil, si es mayor esta vida, lo mas debiles que seran estas reacciones,

como resultado, lo mas grande que sea la vida media del neutron, lo mas rapidas

que seran estas interacciones que mantienen a los protones y neutrones en equili-

brio estadistico,y cuando los neutrinos se desacoplan, menos neutrones decaen,

y como resultado, mas neutrones restantes seran disponibles a tomar lugar en las

reacciones de la BBN, y a su vez, sera producido mas He durante la epoca de la


52

NucleoSintesis.]

Los calculos dan a ese cociente n/p el valor 1/6, y la energia kT = 0.8 MeV, que

corresponde a una T = 10 10 K. Esta T es aun muy alta para que suceda la NS.

Pero el Universo se va enfriando al expanderse,y cuando se ”enfria” a T ~4x10 9 K

la energia es: E ~0.3 MeV, el proceso de construir nucleos empieza. Y a causa de

este retardo, el decaimiento-debil de los neutrones libres disminuyo al cociente a

valer: n /p ~1/7, y este cociente es el que determina las abundancias primordiales.

Los principales constituyentes del Universo son: fotones, neutrinos y antineutrinos,

y pares electron-positron, y tambien una pequeña cantidad de neutrones, protones.

La densidad de energia de los pares es aproximadamente igual a la de los neutrinos

y antineutrinos, ambas siendo (7/4) veces la de los fotones.

La densidad de energia total, es cerca de 21x10 14 eV/ litro, o alrededor de:

3.8x10 11 g/cm 3

El tiempo de la expansion del Universo, en ese instante, es de: 0.02 s,

el cual es la edad del Universo si la tasa de expansion hubiera sido la misma desde

el principio como hasta ese instante. Y su circunferencia seria de 4 años luz.

En esta epoca, y en anteriores, se tiene equilibrio termico.(siglas T.E.)

2a. epoca
53

Esta es al t = 0.12 s, cuando T cae a: T ~3x10 10 K, y no han ocurrido cambios

cualitativos desde la 1a. epoca, los pares e-e + tienen velocidades relativistas, y la

mezcla completa se comporta mas como radiacion que como materia, con la ecua-

cion de estado que es, aproximadamente, p = ε/3. [ε es la densidad de energia]

La densidad de masa, total es de 3x10 7 g/cm 3 . El tiempo de expansion caracteristico

es de: t exp an ~0.2 seg.

No se pueden formar nucleos atomicos aun, pero el balance entre el numero de

protones y de neutrones, que eran transformados unos en otros debido a la reaccion

debil: n + ν e ⇆ p + e-

esta empezando a ser alterada cuando los n’s ahora se transmutan mas facilmente en

protones menos pesados, que por la reaccion inversa: p  n.

El cociente entre el num.de p’s y el de n’s es ahora de: 8/5: 62% p’s, y 38 % n’s.

El equilibrio termico entre los neutrinos y las otras particulas esta empezando a cesar.

El periodo de equilibrio termico es uno en el cual todas las particulas y la radiacion

estan en equilibrio y el cociente n /p depende de la diferencia de masas entre esas

particulas.

La vida-media de neutron es un modo de parametrizar la intensidad de la interaccion

debil, si es mayor esta vida, lo mas debiles que seran estas reacciones, y como
54

resultado, lo mas grande que sea la vida media del neutron, lo mas rapidas que

seran estas interacciones que mantienen a los protones y neutrones en equilibrio

termico, se desacoplan, menos neutrones decaen, como resultado, mas neutrones

remnantes seran disponibles a tomar lugar en las reacciones de la BBN, y a su vez

sera producido mas Helio durante la epoca de la NS.

3a. Epoca

Sucede cuando t = 1.1 s, y la temperatura ha caido a T = 10 10 K, el contacto ter-

mico entre los neutrinos y las demas particulas y la radiacion, cesa por completo.

El contacto termico significa la conversion de pares e- e+ en pares neutrino-anti-

neutrino [por medio de la interaccion nuclear-debil] y viceversa, la conversion de

los pares anteriores en fotones de radiacion.

De aqui en adelante los neutrinos ya no jugaran un rol activo sino que solo provee-

ran con una contribucion a la densidad de masa-energia total. A esto se le llama la

exclusion de la interaccion debil (freeze-out), y la densidad es del orden de:

10 5 g/cm 3 , y el tiempo de expansion caracteristico es de unos pocos segundos.

Y la tasa de las interacciones debiles es menor que la tasa de la expansion. La tem-

peratura esta cercana a la umbral para la produccion de pares e- e+, tal que esos

pares estan empezando a aniquilarse con mayor frecuencia para producir fotones,
55

que los pares que se crean a partir de los fotones: ya no hay equilibrio estadistico.

Pero la T es suficientemente alta como para que se formen los nucleos ligeros,

pues si se forman, son desintegrados luego debido a la alta temperatura-energia, y

el cociente: (neutrones/protones), (n / p), cambio a ser de:76 % protones contra

24 % de neutrones, o sea, 3 contra 1.

4a. Epoca Final del equilibrio estadistico nuclear.

La energia termica es: E = kT ≈ 0.5 MeV, sucede a: t  13 s, cuando la T ha caido:

T ~3 x 10 9 K, y esta debajo de la umbral para la produccion de pares e- e+, tal

que la mayoria de esas parejas se aniquilan. [la energia m e c 2 es de 0.5 MeV]

El calor producido en esta aniquilacion ha reducido temporalmente la tasa de enfria-

miento del Universo. Los neutrinos son alrededor de 8 % mas frios que los fotones,

tal que la densidad de energia es un poco menor que si estuviera disminuyendo como

T 4 [recordar aqui, la ley de Stefan: ε = σ ⋅T 4 ergs/cm 3 ]

El cociente p/n ha aumentado a ser de 83 % protones contra 17 % neutrones: ~5/1

La T es lo suficientemente baja como para que existan nucleos de Helio: 4 He, 3 He

La tasa de la expansion es aun muy alta, asi que solo los nucleos ligeros se forman

por medio de reacciones entre 2 particulas:

p+nD+γ D + p  3 He + γ D + n  3H + γ
56

3
He + n  4 He + γ 3
H + p  4 He + γ

[una condicion fisica para que se formen los nucleos es que la tasa de reacciones Γ,

debe ser mayor que la tasa de expansion del Universo: (R ′ /R), de lo contrario, la den-

sidad del Universo disminuye a mayor tasa y el numero de reacciones disminuye]

Aunque el He es estable, los nucleos mas ligeros mencionados son inestables a esta T,

tal que la formacion del He no es aun posible, por ser necesario ir a traves de los

pasos intermedios para formar el He.

La energia de amarre del D es 1/9 de la del 4 He.

Las formulas que usaron son validas en tanto que todas las particulas,excepto los

neutrinos, permanecen en equilibrio termico con los fotones, a temperatura T.

esto es llamado la: ”Termalizacion”. Puede ser demostrado que choques de los

fotones y particulas son suficientemente rapidos como para mantener esta condicion

en el rango de temperaturas de interes: 60 ≳ T 9 ≳ 0.1. [convencion: T 9 = 10 9 T]

Arriba de la T ≈ 10 11 K, las reacciones π ± ⇌ µ ± + ν µ

que suceden en un tiempo t ≈ 2x10 −8 seg

y las reacciones µ ⇌ e + ν + ν (con t ≈ 2x10 −6 seg)

son lo suficientemente rapidas para mantener a electrones y neutrinos del muon,

en T E, si estos no estan ”degenerados”. El proceso de aniquilacion de pares, y la


57

dispersion Compton, mantiene a las particulas cargadas en T E con los fotones.

Cuando la T disminuye, ambos tipos de particulas: µ y ν, son excluidas (freeze-out)

y se expanden adiabaticamente, de ahi en adelante, con la misma T (efectiva)

Con objeto de especificar las propiedades dinamicas de nuestro sistema, debemos

conocer la tasa de cambio de la distancia fisica entre particulas, R(t) y la relacion

entre las propiedades del medio y esta R, o sea, la ecuacion de Friedmann, que da

la Relatividad General de Einstein. [seccion de Cosmologia]

A altas temperaturas, (T >10 11 ) todos los constituyentes estaban en E T. tal que

la T ν de neutrinos era la misma que la T γ de los fotones,y se puede demostrar que:

T  1/R cuando T cayo a ser ~10 10 , los neutrinos ya no interactuaban con las demas,

estaban excluidos. Cuando la T cae a ser menor de ~10 9 K, los pares se aniquilan

[porque la energia a esta T es menor que la energia de reposo de los electrones,

y asi los fotones no tienen energia para crear pares e- e+]

5a.Epoca Era de la NucleoSintesis

Las dos claves para entender la sintesis de los elementos ligeros, son: la fraccion de

neutrones libres y la salida del equilibrio termodinamico (T E) que ocurre.

La fraccion es crucial porque, a diferencia de las estrellas, en las cuales la densidad

de los neutrones es muy alta, y hay suficiente tiempo para que las interacciones
58

debiles transmuten protones en nucleos, con neutrones, ej.:

p + p → D + e+ + νe

en el Universo primigenio tales reacciones no ocurren, y la abundancia de neutrones

libres determina la magnitud de dicha sintesis. La salida del T E es crucial: si no


ocurriera todos los nucleones acabarian eventualmente en el Hierro.

Esta sintesis sucede al t ~3 minutos despues de la 1a. epoca, cuando T = 10 9 K,

la cual es, aproximadamente 70 veces mas caliente que el centro de nuestro Sol.

Empieza la (era de la) Nucleosintesis. La energia es: E = kT = 0.08 MeV.

Los pares e- e+ han desaparecido, y el contenido del Universo son principalmente

fotones y neutrinos, mas una ”contaminacion” de protones neutrones y electrones,

cuya densidad numerica es mucho menor que la de fotones, por un ratio de 1:10 9

la cual,eventualmente, evolucionara hacia la materia del Universo actual.

En esta epoca, la temperatura de los fotones es 35 % mayor que la de los neutrinos.

Es suficientemente ”fria” para que el 3 H (tritio), 3 He y 4 He, sean estables, pero el

”cuello de botella” del deuterio D, esta aun en operacion, tal que esos nucleos no

pueden aun ser formados. El decaimiento-beta del neutron hacia un proton,electron

y neutrino llega a ser muy importante, porque la escala de tiempo de esta reaccion es

de: t ~12 min. Esto causa que las cantidades de p’s y n’s sean de: 86 % protones y
59

14 % neutrones.

Un tiempo posterior al de la 5a epoca, la T cae lo suficiente como para que el deuterio

sea estable, tal que nucleos mas pesados son formados facilmente, pero en cuanto se

forman los nucleos de 4 He otro ”cuello de botella” opera: no existen nucleos estables

con numero de nucleones 5 u 8.

[el D tiene una energia de amarre de solo 2.2 MeV, asi que cuando la T >10 9 , hay

suficiente energia para desintegrarlo por choques o fotones de la radiacion]

La T exacta depende del cociente: fotones/bariones = η si este numero es 10 9 ,

entonces la T ~0.9 x 10 9 K, y estos eventos se suceden en algun instante entre los

3 y 4 min. Casi todos los neutrones son gastados para formar 4 He, con muy pocos

de otros nucleos mas pesados: Litio, Berilio,Boro, etc,debido al efecto mencionado

antes, la no-existencia de los nucleos estables con 5 u 8 nucleones.

El cociente p/n es de ~87 % contra 13 %, y se ”congela” en este valor cuando todos

los neutrones han sido usados.

Debido a que el nucleo de 4 He tiene 2 neutrones y 2 protones, la proporcion de He al

Hidrogeno H, (en terminos de peso) es de :~24 o 26 % de 4 He, y de 76 a 74 % de H.

Si el cociente η es mas pequeño, entonces la sintesis de nucleos empieza un poco mas

temprano, y un poco mas de 26 % de nucleos de 4 He, son formados.

Los neutrones que no fueron incorporados en los nucleos, habrian decaido via la
60

interaccion nuclear-debil: n → p + e − + ν e

6a. Epoca

Cuando t ≃ 35 min, cuando la T = 3 x10 8 K. Los e- y los e+ se han aniquilado,

excepto por un numero pequeño de e − que quedaron para neutralizar a los p + .

Suponemos que la densidad de carga, en cualquier volumen significativo del Universo

es cero. La T de los fotones es ~40% mayor que la T de los neutrinos, y asi perma-

neceran en la subsecuente historia del Universo. La densidad de la materia barionica

es despreciable en comparacion con la de los fotones y neutrinos.

Los procesos nucleares se han detenido, la proporcion del 4 He está entre un 20 y un

30% dependiendo del cociente η = n b /n γ , (numero de bariones/num.de fotones)

Como los protones y los electrones tienen carga electrica, en su estado libre pueden

dispersar fotones libremente,(dispersion de Compton). Como resultado, la ”trayectoria

libre media” de fotones(distancia promedio de viaje de un foton entre dos interacciones)


# p.60 ↓ − − − − − − − − − − − − − − − − − −

λ mfp era pequeña comparada con la distancia que viajaria durante el tiempo caracteristico

de expansion del Universo en ese periodo, si no fuera impedido.

Esto es lo que se quiere expresar por: ”la materia y la radiacion estan en equilibrio”

pues hay un libre intercambio de energia entre ambas. Asi, el Universo, durante el periodo

en el cual protones y electrones eran libres (no habian formado atomos), era opaco a la
61

radiacion electromagnetica.

[se puede calcular la opacidad en esta epoca, cuando se forman los atomos, los

fotones ya no interactuan tanto con los atomos neutros, y aquellos viajan libremente

por el Universo, el Universo se torna transparente]

Epoca de la ReCombinacion

Eventualmente la T disminuyo lo suficiente para que electrones y protones formaran

atomos de hidrogeno en su estado cuantico base, estables.Ahora, como requiere de

una energia de 13.6 eV para ionizar a un atomo completamente (por la ec. E = k T),

la temperatura a la cual un atomo se ioniza, es de

13.6 / k = 1.576 x 10 5 K = 157,600 K. Pero aun en los estados excitados,

en los cuales no esta ionizado, un atomo puede dispersar fotones.

Asi solo es el estado base, que cesa de interactuar significativamente con fotones.

La T a la cual los protones y electrones primigenios se amarran para formar atomos

de Hidrogeno en su estado base fue alrededor de 3000 a 4000 K, lo que ocurrio

luego de unos cientos de miles de años luego del instante inicial de la BB.

Esta era se conoce como la de ”Recombinacion”. Luego de este periodo de tiempo

el Universo se hizo transparente a la radiacion, o sea: la λ mfp de un foton era mucho

mas grande que la distancia atravesada en un tiempo caracteristico de la expansion


62

del periodo. Esta es la razon por la cual nosotros vemos luz, que emiten las galaxias

distantes a billones de años-luz, que no ha sido impedida de viajar, excepto por el

corrimiento-al-rojo de su frecuencia.

HISTORIA TERMICA DEL Universo

Richard Tolman fue un pionero en este campo de la Cosmologia[1935]

En este capitulo describimos los procesos fisicos que ocurrieron en el

Universo primigenio, desarrollamos a la Termodinamica Estadistica basica

necesaria para entender esos procesos.

El Universo era dominado por la radiacion cuando el parametro que describe

el corrimiento al rojo, z, era mayor que z eq ≃ 3.9x10 4 (Ω h 2 )

En esta fase, la temperatura de la radiacion era mayor que

T eq ≃ 9.2(Ω h 2 ) eV ≃ 1.07x10 5 (Ω h 2 ) K, y se incrementa como

T ∝ (1+z).

El contenido del Universo, en esas etapas primigenias, era de una forma diferente

del contenido actual,

[Las estructuras atomicas y las nucleares tienen energias de amarre del orden

de decenas de eV y de MeV, respectivamente]

Cuando la T del Universo era mayor que la correspondiente a esas energias,


63

tales estructuras no podian haber existido.

Cuando la T correspondia a una energia [E = kT] mayor que

la masa-energia de reposo de una particula cargada, entonces, la energia

de un foton era lo suficientemente grande como para producir particulas

y sus anti-particulas en grandes cantidades. Por ejemplo, cuando

kT >> m e c 2 ≃ 0.5MeV ≃ 5.8x10 9 K, habra un gran numero de

positrones en el Universo. La energia de esas particulas sera kT, haciendolas

ultra-relativistas.[en lo que sigue tomamos unidades donde la k = 1]

Asi el Universo primigenio, dependiendo de T, fue poblado por diferentes

tipos de particulas elementales en tiempos distintos. Para investigar los

procesos fisicos en el tiempo t, necesitamos conocer las funciones de

distribucion estadistica de esas particulas f A (x, p, t) ≡ f A (p,t)

A, etiqueta a las diferentes especies de particulas. Debido a la homogeneidad

del Universo, el vector x no aparece.

Estas especies interactuan frecuentemente con varias fuerzas, dispersandose

e intercambiando energia y momentum.

Si la tasa o velocidad de estas reacciones, Γ(t) es mucho mayor que la tasa

de la expansion del Universo, H( t ) = 1 dR


R dt
64

[H es el parametro de Hubble definido por la ec. v = H r, donde v es la velocidad

de recesion de las galaxias, y r, la coordenada comoviente entre las mismas]

entonces estas interacciones pueden producir (y mantener) equilibrio

termodinamico entre las particulas interactuantes con alguna temperatura T(t)

[o sea, los tiempos τ = 1/ Γ son mucho menores que el tiempo 1/ H]

Todas estas interacciones tienen un rango corto, pero en un plasma, el proceso

del apantallamiento de Debye reduce a este rango; haciendola efectivamente,

de corto rango.

Asi podemos suponer que el rol de esas interacciones esta limitado a dar un

mecanismo para la termalizacion (llegar al estado de equilibrio)

e ignorar sus efectos en decidir la forma de la funcion de distribucion.

En ese caso las particulas pueden ser tratadas como un gas ideal de Bosones

o de Fermiones, con las funciones de distribucion:

gA
f (p,t) d 3 p = {exp[(Ep − µ A )/kT A (t)] ± 1} −1 d 3 p (1)
(2π) 3

donde g A es el factor de la degeneracion de spin de la especie A

µ A (T), el potencial quimico, T A (t), la temperatura de esta especie, al tiempo t

E(p) = (p 2 + m 2 ) 1/2 (tomamos la convencion de unidades donde c = 1= ℏ)

En todo instante de tiempo, t, el Universo tambien contendra una distribucion


65

de ”cuerpo negro” de los fotones con una temperatura T γ (t).

Si una especie se acopla con el foton directamente o indirectamente, y si

la tasa de estas interacciones A-γ es suficientemente grande (Γ Aγ >> H)

enntonces estas particulas tendran la misma T que los fotones: T A = T γ .

Puesto que esto es el caso, se refiere a la T de los fotones por la expresion:

”la temperatura del Universo”

Cualquier conjunto de especies A,B,C,....que interactuan entre ellas mismas

con una tasa suficientemente alta, tendran tambien la misma temperatura.

Conforme el Universo se desenvuelve, la T(t) cambia debido a la expansion

−1
en una escala temporal del orden de: t H = H −1 (t) ≡ R′ , (R ′ = dR )
R dt

la tasa a la cual la temperatura cambia, esta dada por: T’(t).

La tasa de la interaccion (por cada particula) se expresa con la ec.

Γ ≡ n <σ v >

donde n es la densidad numerica de las particulas-blanco, v es la velocidad

relativa, y σ es la seccion transversal de la interaccion, que depende de la

energia, asi < σ v > denota un valor promedio sobre las energias.

En tanto que Γ >> H, las interacciones pueden mantener el equilibrio.

En este caso, la f se desarrollara adiabaticamente, manteniendo la forma de la


66

ecuacion (1), con la T correspondiente al valor instantaneo del tiempo t.

De la funcion de distribucion (1) podemos calcular a n, a la presion, p y la

densidad de masa-energia ρ.

g ∞ (E 2 −m 2)1/2
n = ∫ f(k) d 3 k = 2π 2 ∫m exp[(E−µ)/T]±1
EdE ( 2)
2
g ∞ (E 2 −m )1/2
ρ = ∫ E f(k) d 3 k = ∫
2π 2 m exp[(E−µ)/T]±1
E 2 dE (3)

2
k 2 f(k) d 3 k = g ∞ (E 2 −m )3/2
p=∫ 1
∫m dE (4)
3 E 6π 2 exp[(E−µ)/T]±1

(k denota el momentum) Para un conjunto de particulas relativistas, la presion

p, correspondiente a una velocidad v, es: p = m(v 2 /3 1 − v 2 )

que es la misma ec. que la ec. p = (k 2 / 3E).

Con mucha algebra se puede demostrar que la cantidad s, densidad de entropia,

es tal que la cantidad (sR 3 ) sera conservada, que es la entropia total.

Donde s = (ρ + p − nµ)/T

Las expresiones se simplifican mucho en ciertos casos limite:

(1) particulas ultrarelativistas, cuando T >> mc 2

(2) caso no-degenerado: T >> µ

en estos,

g ∞ E 3 dE
ρ≃ 2π 2 ∫0 exp(E/T)±1
= g B (π 2 /30) T 4 (Bosones) (5)

= (7/8)g F (π 2 /30) T 4 (Fermiones) (6)


67

Asi la densidad de energia total contribuida por todas las especies juntas

es: ρ total = ∑ g i (π 2 /30)T 4i + (7/8) ∑ g i (π 2 /30)T 4i =


i=boson i=fermion

= g total (π 2 /30) T 4 (7)

donde g total = ∑ g B (T B /T) 4 + (7/8) ∑ g F (T F /T) 4 (8)

La presion debida a las especies relativistas es p≃ (ρ/3) = g(π 2 /90) T 4

tal que la densidad de entropia de las mismas sera:

s≃ 1
(ρ + p) = 2π 2 q T 3 (9)
T 45

con la q identica a la g, excepto por la potencia 3 en los cocientes de T B / T

El analisis anterior demuestra que la entropia, S = qT 3 R 3 se conserva

durante la expansion.

Tambien podemos calcular la densidad de las particulas relativistas de modo analogo

(ς(3)/π 2 )g B T 3 (boson)
n= (10)
(3/4)(ς(3)/π 2 )g F T 3 (fermion)

En el caso limite opuesto, cuando la T << mc 2 , podemos hacer el

mismo analisis y demostrar que [Padmanabhan, 1995]

ρ ≃ n m y p = n T << ρ

y tambien que la densidad de energia (y numerica) de las particulas no-relativistas

esta exponencialmente amortiguada por el factor exp(-m / T) con respecto a las


68

de las relativistas. Asi, para tiempos t < t equal , en la era del Universo cuando

dominaba la radiacion, podemos ignorar la contribucion de las no-relativistas

a la ρ. Y por la ecuacion de Friedmann, durante esa era, R(t) ∝ t , asi

R′ 2
= H 2 (t) = 1
= 8πG
ρ= 8πG
g ( π30 )T 4
2
(11)
R 4t 2 3 3

Es util expresar estas cantidades en terminos de la masa de Planck [Wheeler,1973]

MP = ℏc/G = 1.22x10 19 GeV/c 2

y pasar a unidades donde: ℏ = 1, c = 1

H( T ) ≃ 1.66 g T2 (12)
MP

−2
t ≃ 0.3(1/ g ) M2P ≃ 1seg T (1/ g ) (13)
T 1 MeV

El factor g cuenta el numero de grados de libertad de aquellas particulas que

son aun relativistas a esta temperatura T. Cuando esta disminuye, mas y mas

particulas se haran no-relativistas, y g y q disminuiran; asi g = g(T) y la q(T)

son funciones que varian lentamente y disminuyen con la T.

En los modelos aceptados de interacciones de particulas,

g ≃ 100, para T ≳ 300 GeV;


g ≃ 10, para T ≃ (100 − 1)MeV y
g ≃ 3, para T < 0.1 MeV.

La variacion lenta de q(T) tiene una consecuencia importante. La expresion


69

para la entropia conservada en la epoca dominada por la radiacion es la eq.(9)

Asi la T disminuye como 1/ R en tanto que q(t) es constante.

Si el numero q cambia, entonces la T disminuira mas lentamente

que 1/ R; la relacion correcta es

3 q(T) T ∝ 1/ R

Puede demostrarse que las particulas se hacen no-relativistas cuando el

Universo se ha expandido lo suficiente, lo que sucede cuando la temperatura

cae debajo del valor T NR ≃ mc 2 , en este caso: el momentum k << mc

y la energia E = ( k 2 c 2 + m 2 c 4 ) 1/2 ≃ mc 2

Fondo de Reliquias de Particulas Relativistas

Dado el espectro de las masas y las interacciones (nuclear y debil, electro-

magnetica) de las particulas, el formalismo matematico desarrollado

previamente puede usarse para hacer predicciones concretas.

Para entender los procesos que suceden en el Universo primigenio,

cuando la temperatura era T, es necesario conocer la fisica de tales

interacciones a energias E ≃ T. y el analisis puede ser dividio en tres fases

distintas:

(i) el entendimiento de tal fisica es razonablemente completo para energias

menores de 1 GeV, y debemos disponernos a seguir la evolucion del


70

Universo desde una temperatura de T ~1 GeV ~1.2 x 10 13 K, hacia

menores T, con una exactitud razonable.

(ii) Hay modelos teoricos que intentan describir a las interacciones en el

rango de energias de 1 GeV hasta 10 16 GeV.

Y son comparativamente mas especulativos, con sus incertidumbres que se

incrementan con la energia. El rango (1 – 100) GeV es algo mejor entendido

porque es accesible en los actuales aceleradores de particulas.

Dado un modelo especifico de Fisica de Particulas, la evolucion del Universo en

este rango de temperaturas, puede ser estudiada:

desde: 10 16 GeV ~1.2 x 10 29 K, hasta: 1 GeV ~ 1.2 x 10 13 K,

Como los modelos no son unicos, no pueden hacerse predicciones

univocas. Pero con frecuencia es posible deducir algunas consecuencias de

tales modelos que pueden ser comprobados al hacer observaciones

cosmologicas.

(iii) La Fisica, a energias arriba de los 10 16 GeV, es muy incierta, se

supone que hay efectos cuanticos en la gravitacion, de los cuales se conoce

poco pues no hay una Teoria Cuantica de la Gravitacion aceptada.

Tales efectos seran significativos a energias E ≳ M P ≃ 1.2 x 10 19 GeV.


71

La base de los analisis previos, la Relatividad General Clasica, falla a esas

energias.

La incerteza en el conocimiento sobre las interacciones de particulas a altas

energias nos previene de predecir una composicion material unica o historia

evolutiva de nuestro Universo. Para hacer cualquier progreso, es necesario

hacer suposiciones razonables acerca del contenido material en algun momento

del tiempo y desarrollar las consecuencias. puesto que los procesos fisicos

son,relativamente, bien entendidos a temperaturas T ≲ T 12 K, discutiremos

primero esta fase de la evolucion.

Si la masa del electron m e ≃ 0.5 MeV = 6 x 10 9 K, esperamos una

densidad numerica significativa (i.e. densidad comparable a la de fotones)

de electrones y de positrones, ultra-relativistas a T >10 9 K.

Las unicas otras especies de particulas que podrian ser relativistas a la

temperatura T =10 12 es el neutrino (ν). Se sabe que hay 3 tipos (”sabores”)

de neutrinos, asociados con: el electron, el muon, y el lepton pesado (τ)

y que sus masas no se conocen con precision, pero sus cotas superiores

experimentales son: 10 −3 eV, 5x10 −3 eV, y: 0.05 eV, respectivamente.

[estas cotas son basadas en la deteccion de oscilaciones de las masas de los


72

neutrinos y en modelos teoricos, y son cantidades tentativas]

Supondremos, por ahora, que las tres masas de reposo, son cero.

Los neutrones (n) y los protones (p) contenidos en el Universo actual, deben

haber existido cuando T = 10 12 , tambien, porque estas particulas no pudieron

ser producidas cuando la T disminuyo a T < 10 12 K.

El cociente entre la densidad numerica de bariones, n B y la densidad de

fotones, n γ permanecio aproximadamente constante desde T ≃ 10 12 K

hasta la epoca actual. Este cociente, actualmente, es

(n B /n γ ) 0 ≃ (ρ c Ω B /m B n γ ) 0 ≃ (10 −8 —10 −10 )

La pequeñez de este numero conservado nos muestra que podemos

ignorar el efecto de la n B en la dinamica del Universo dominado por la

radiacion. Y podria haber una pequeña fraccion de pares muon-antimuon

y que se ignoran por simplicidad.

Puesto que el numero de fotones no se conserva, su potencial quimico, µ, es cero.

La reaccion e + e + ⇆ γ + γ mantiene el equilibrio entre los pares y los fotones

a esta T. La conservacion del potencial quimico en esta reaccion implica que:

µ e + µ e = 0, se puede demostrar que el exceso de e − sobre e + , es:

gT 3 2 µ µ 3
n- n ≃ π T
+ T
(para T >> mc 2 ) (14)
6π 2
73

Cuando el Universo se enfria hasta una temperatura T << m e c 2 , los

electrones y positrones se aniquilan en pares y solo este pequeño exceso

sobrevive. La unica otra particula cargada que estara presente es el proton.

Puesto que nuestro Universo parece ser electricamente neutro, [la cota a la

densidad numerica neta de las cargas libres es: (n Q /s) ≲ 10 −27 ]

el exceso de electrones debe ser igual a la densidad numerica de protones n p .

se puede demostrar que

n − n ≃ 1.33 (µ/ T ) ≃ 10 −8 << 1, (15)


asi podemos poner µ ≃ 0 para ambos, e − y e + .

Similarmente, de la reaccion ν + ν ⇆ e − + e + ,

se sigue que la suma de sus potenciales quimicos es cero.

Hay un exceso de neutrinos sobre antineutrinos, pero este numero no se

conoce. Si es grande, entonces el Universo tendra un numero grande de

leptones, L, (numero leptonico), que excede al numero barionico B.

Puesto que el Universo no parece tener valores grandes de ningun numero

cuantico, un valor grande de L requerira una eleccion especial de condiciones

iniciales. Esto sugiere que L debe ser pequeño. En ese caso, µ ν = −µ ν ≃ 0

Estos argumentos muestran que, a T =10 12 K, la densidad de energia del


74

Universo es contribuida por e, e + , ν, ν , γ. Puesto que las interacciones entre

ellas mantienen el equilibrio, todas tienen la misma temperatura.

Tomando los valores g B = g γ = 2, g e = g e = 2, g ν = g ν = 1

e incluyendo tres ”sabores” (flavors) de neutrinos, encontramos:

g tot = g B + (7/8)g F = 2 + (7/8)[2+2+2x3] = 43/4 = 10.75 (16)

Los valores de g para particulas representan a los dos posibles estados de

spin para los fermiones, masivos, de spin-1/2.

de las formulas anteriores (21),(22) podemos encontrar la relacion precisa:

Temperatura - tiempo, para esta epoca o fase de la evolucion:

H(T) ≃ 5.44 T2 t ≃ 0.09 M2P (17 )


MP T

Puesto que los neutrinos no tienen carga, no tienen acoplamiento directo con

los fotones. Su interaccion con los bariones puede ser ignorada debido a la

baja densidad de los bariones. Asi estos neutrinos son mantenidos en

equilibrio por las reacciones como la ν + ν ⇆ e − + e + , ν + e ⇆ ν + e, etc.

La seccion eficaz, σ(E) para estos procesos de I D, es del orden de

(α 2 E 2 / m 4X ) donde α ≃ 2.8x10 −2 esta relacionada con la constante de

acoplamiento de norma g s ≃ 0.6 por α = (g 2 /4π), y: m X ≃ 50 GeV es la

masa del boson vectorial normado, X, que es mediador de la I D.


75

Definiendo a la ”constante de acoplamiento Fermi”

G F = (α/m 2x ) ≃ 1.17x10 −5 (GeV) −2 = (293 GeV) −2

y usando el hecho que E ~T, podemos escribir σ ≃ G 2F E 2 ≃ G F T 2 .

Puesto que la densidad numerica de las particulas interactuantes es

n ≃ (ς(3)g/π 2 ) T 3 ≃ 1.3 T 3 y: < v >≃ c = 1,

la tasa de las interacciones esta dada por:

Γ = n σ v ≃ 1.3 G 2F T 5 . (18)

La tasa de expansion, de la (3.32) es: H ≅ 5.4(T 2 /M P ). Asi,

3
3
Γ ≃ 0.24 T 3 MP ≃ T = T (19)
H G −2
F 1.4MeV 1.6x10 10 K

La tasa de interaccion de neutrinos llega a ser menor que la de expansion,

cuando la T cae debajo de T D ≃ 1 MeV, a T’s mas bajas, los neutrinos son

completamente desacoplados del resto de la materia.

Puesto que suponemos que no tienen masa, son relativistas en el tiempo del des-

acoplamiento. (esta conclusion sera cierta aunque tuvieran masa de reposo

m ν << T D ≃ 1 MeV ), Su funcion de distribucion en tiempos posteriores es

dada por la distribucion de Bose-Einstein, con una T ν ∝ R −1 .

El Universo actual deberia contener un fondo de reliquias de esos neutrinos.

con una temperatura T ν = (4/11) 1/3 T γ = 1.9 K


76

semejante al fondo de la radiacion cosmica, CMB, con T = 2.73 K.

En la era del desacoplamiento, los fotones, neutrinos y el resto de la materia

tenian la misma T. En tanto que la T γ del foton disminuya como 1/ R, los

neutrinos y los fotones continuaran teniendo la misma T aunque los primeros

se hayan desacoplado. Sin embargo, la T del foton disminuira con una tasa

poco mas pequeña si el factor g esta cambiando. En ese caso T γ sera mayor que

T ν cuando el Universo se esta enfriando. Tal cambio en el valor de g ocurre

cuando el Universo llega a una T ≲ m e . Cuando esto sucede, la energia promedio

de los fotones caera debajo de la requerida para crear pares e e .

Asi la reaccion inversa e + e + ⇌ γ + γ sera suprimida severamente. La reaccion

que aniquila pares continuara, resultando en la aniquilacion de pares.

Es claro que este proceso cambia el valor de la g. Cuando T D > T ≳ m e , los

ν ′ s se han desacoplado y su entropia se conserva, separadamente; pero los

fotones (g = 2) estan en equilibrio con los e’s y los e + ’s (con g = 2).

Esto da: g(γ, e,e + ) = 2 + (7/8)x4 = (11/2).

Para T << m e , cuando la aniquilacion es completa, las unicas especies relativistas

en este conjunto son el foton. La conservacion de la entropia, S = q(TR) 3 ,

aplicada a particulas que estan en equilibrio con la radiacion, muestra que la


77

cantidad q(T γ R) 3 = g(T γ R) 3 permanece constante durante la expansion.

(a causa de que todas las particulas tienen la misma T, q = g).

Y a causa de que g disminuye durante la aniquilacion, el valor de S luego de la

aniquilacion, sera mayor que su valor anterior:

S despues /S antes = ( g antes / g despues) = 11/4.

Los ν ′ s ,desacoplados, no participan en este proceso, y estan caracterizados

por una T ν (t) que cae estrictamente como 1/ R y su entropia, (s ν R 3 ), es

conservada separadamente. Sea T ν = K/ R; antes de la aniquilacion,

(RT ν ) despues = (RT γ ) antes = K. Se puede demostrar que:

(RT γ ) despues = (11/4) 1/3 (RT ν ) despues ≃ 1.4(RT ν ) despues

Asi la aniquilacion de pares aumenta la T de los fotones, comparada con la de

los neutrinos, por un factor de ≃ 1.4

Para calcular la tasa de la expansion, R, en funcion del tiempo, necesitamos

determinar la densidad de energia total que es dominada por la radiacion, los

pares de particulas y otras componentes relativistas. Esta densidad puede ser

π 2 k 2B
escrita como: ρ = A B T 4ν D , (A B = ) donde:
15ℏ 3 c 3

4
T + (7/8)N ν + 152 ℏ3 4d 3 k ε
D=
Tν π (k B T) 4 ∫ (2πℏ) 3 e ε/k B T + 1
78

El primer termino es la densidad de energia del foton, el 2o. es la contribucion

de todas las especies de materia relativista interactuante debilmente, en funcion

del numero efectivo (N ν )de familia de neutrinos existentes en esa epoca, y el

3er. termino es la densidad de energia en los pares e e .

La evolucion de la T ν se calcula por:

4
2
Tν’ = 8
πG A B T 4ν D = 0.047 Tν D (seg) −2
Tν 3
10 10 K

Puede verificarse facilmente que los fotones liberados por este proceso de

aniquilacion, llegan a ser rapidamente termalizados por causa de choques con

particulas cargadas.(detallaremos estos procesos en la seccion de des-

-acoplamiento). El analisis precedente esta basado en esta hipotesis.

Despues de las aniquilaciones, el factor g no cambia. Ambas T γ y T ν

caen como 1/ R y el cociente T ν / T γ = 0.71 se mantiene asi hasta hoy.

El fondo de reliquias ν, hoy debe tener una distribucion de Fermi-Dirac

con una T ν ≃ (4/11) 1/3 T γ ≃ 0.71x2.7 K = 1.9 K.

Asi las especies de particulas que permanecen relativistas hasta hoy, seran

fotones con una T γ ≃ 2.73 K, y tres ”flavors” de neutrinos y antineutrinos

sin masa ( g F = 3 + 3 = 6) con una temperatura T ν .


79

Es facil demostrar que: g(ahora) = 2 + (7/8)x 6 x(4/11) 4/3 ≃ 3.36


q(ahora) = 2 + (7/8)x 6 x(4/11) ≃ 3.91

Las densidades de energia y de entropia de esas particulas relevantes, en el

Universo de nuestra epoca actual, son:

ρ R = π g T 4 = 8.09x10 −3 10 −4 (gm cm −3 )
2
30

2
s = 2π q T 3 ≃ 2.97x10 −3 cm −3
45

Esta ρ R corresponde a Ω R = 4.3x10 −5 h −2 .

Note que ρ R = (g total /g γ )ρ γ ≃ 1.68ρ γ ; similarmente, Ω R = 1.68Ω γ .

La densidad de la materia, hoy, es: ρ NR = 1.88x10 −29 Ω h 2 gm/cm 3

El corrimiento-al-rojo z eq al cual la materia y la radiacion tienen iguales

densidades de energia, es determinado por la relacion (1 + z eq ) = (ρ NR /ρ R )

Su valor correcto es: (1 + z eq ) = Ω NR = 2.3x10 4 (Ω NR h 2 )


ΩR

Esto corresponde a la temperatura

T eq = T 0 (1 + z eq ) = 5.5(Ω NR h 2 )eV

y al tiempo:

t eq ≃ (2/3)H −1 −1/2
0 Ω NR (1 + z eq )
−3/2
= 5.84x10 10 (Ω NR h 2 ) −2 seg.

Se define al t eq al usar la ec. para R(t) que es valida en la fase del dominio

de la materia , usando la forma mas precisa de R(t), dara:

t eq (exacta) = 0.58 t eq = 3.41x10 10 (Ω NR h 2 ) −2 seg.


80

El tamaño del radio de Hubble cuando el tiempo, t eq es :

d H (t eq ) ≃ c t eq ≃ 1.75x10 21 (Ω NR h 2 ) −2 cm

Esto corresponde hoy, a la escala de longitud:

λ eq =d H (t eq )(1 + z eq ) ≃ 13Mpc(Ω NR h 2 ) −1 ,

La densidad de entropia, s, la usamos antes para definir a las cantidades

conservadas N A = (n A /s) para esas especies de particulas que tienen

n A ∝ R −3 . Conociendo el valor actual de la s, podemos calcular explicitamente

este numero. Por ejemplo, la densidad barionica actual

es: n B = 1.13x10 −5 (Ω B h 2 ) cm −3 , y corresponde al cociente

nB ρcΩ B
s = = 3.81x10 −9 (Ω B h 2 ).
s mB

Con frecuencia la densidad numerica de fotones n γ se usa mas que la s, para

definir un cociente bariones/fotones, η ≡ n B , para nuestro Universo.


a causa de que
2ς (3) 45ς(3)
nγ = T 30 = s ≃ 0.142 s ≃ 422 cm −3 ,
π2 π4 q
este cociente es

η= nB = nB s ≃ 7 nsB = 2.67x10 −8 (Ω B h 2 )
nγ s nγ

Este valor es extremadamente pequeño,p.ej., el numero correspondiente en el

interior de las estrellas, es: η ~100.


81

Como notamos antes, la densidad de materia dominante en el Universo no es

contribuida por los bariones. Parece muy posible que la materia obscura

no-barionica contribuya con una fraccion Ω DM ≃ 0.2 − 1, por el contrario los

bariones contribuyen con solo: Ω B ≃ 0.02 h −2 . De esto, Ω = Ω B + Ω DM ≈ Ω DM

Cuando el Universo llego a ser dominado por la materia cuando t ≃ t eq , sera

dominado por la materia no-barionica y no por los bariones. La densidad de

energia barionica dominara sobre la radiacion cuando ρ B = Ω B ρ c (1 + z) 3 sea

mayor que ρ B = Ω R ρ c (1 + z) 4 , esto ocurre cuando el corrimiento z RB

satisface la ec. (1 + z RB ) = Ω B = 2.3x10 4 (Ω B h 2 )


ΩR

Para Ω B h 2 ≃ 0.02, esto da: z RB ≃ 460.

Hemos empezado con una composicion particular del Universo cuando T =10 12

y dedujimos las consecuencias. No habia antiprotones ni antineutrones.

habia un exceso de e’s sobre e + ’s, tal que luego de la aniquilacion de pares

sobrevivio un exceso de e’s. Las mismas consideraciones se hacen para p’s

y anti-p’s, a temperaturas mas altas que unos pocos de GeV’s, habia un grande

numero de antiprotones, antineutrones, etc., pero debe haber habido un exceso

pequeño de protones sobre sus antiparticulas. Cuando el Universo bajo su

temperatura hasta: T ~ m proton ~ 1 GeV, los pares se aniquilaron dejando un


82

exceso pequeño de protones.

Es claro que se han ”puesto a mano” un exceso de bariones en las condiciones

iniciales, como para reproducir correctamente el Universo actual.

Una teoria mas verdadera y fundamental deberia explicar como surge este exceso

de bariones en las eras primigenias. Tal explicacion es posible en algunas de estas

modelos de particulas-elementales, y contienen interacciones que pueden cambiar

al ”numero barionico” [Sajarov, 1967] y asi producir un exceso de bariones,

comenzando desde un estado cuantico simetrico barion-antibarion.

La Sintesis de los Nucleos Ligeros

Las energias de amarre de los primeros cuatro elementos ligeros, son:

Deuteron, Tritio Helio-3 Helio-4


———————————————————
2 3 3 4
H, H He He son: (en MeV)
2.22 6.92 7.72 28.3

Cuando el Universo se enfria a temperaturas menores de las correspon-

-dientes a esas energias ( E = kT), se espera que esos nucleos se formen

(pues no hay suficiente energia para desintegrarlos)

Aunque estas consideraciones sugieren que estos nucleos se forman

cuando la E del Universo esta en el rango (1–30) MeV

la sintesis actual toma lugar a una T mucho menor, T n ≈ 0.1 MeV

La razon para este retraso es la ”alta entropia” de nuestro Universo,


83

esto es: el valor grande del cociente n γ /n b = η −1

Y su explicacion es: supongamos que las reacciones nucleares: fuertes

y debiles son suficientemente rapidas para mantener el equilibrio termico

(T.E.) entre las varias especies de particulas y nucleos. En T E, la densidad

numerica de una especie A N Z con numero de masa atomica A y carga Z,

sera: n A = g A (m A T/2π) 3/2 exp[−(m A − µ A )/T] (20)

donde µ A es el potencial quimico de la especie A

La diferencia de masas entre el proton y el neutron Q ≡ m n - m p = 1.293 MeV

se retiene el el exponencial pero se puede ignorar en el prefactor m 3/2


A ; en este,

m n ≈ m p ≈ m b , un valor promedio,

puesto que el µ es conservado en las reacciones que producen A N Z

de Z protones y (A-Z) neutrones, µ A para cualquier especie puede expresarse

en terminos de µ p y de µ n : µ A = Zµ p − (A − Z)µ n

con un poco de algebra se puede demostrar que [Padmanabhan, 2002,p.231]:

n A = g A A 3/2 2 −A (2π/m B T) 3(A−1)/2 n Zp n A−Z


n exp(B A / T) (21)

definimos a la ”fraccion de masa” del nucleo A, por X A =A(n A /n B )

n B es la densidad de bariones en el Universo. Con algebra se demuestra que:

X A = F(A)(T/m B ) 3(A−1)/2 η A−1 X p Z Xn A−Z exp[B A /T] (22)


84

donde F(A) = g A A 5/2 [ς(3) A−1 π (1−A)/2 ⋅ 2 (3A−5)/2 ] (23)

La ec.(22 ) muestra cómo la alta entropia del Universo, i.e. un valor pequeño de η

retrasa la formacion de los nucleos. Para tener X A ~1, no es suficiente que el

Universo se enfrie a una T ≲ B A ; es necesario que se enfrie aun mas, tal como

para compensar el valor pequeño del factor η A−1 .

La T A a la cual la fraccion de masa de una especie A sera del orden uno,(X A ~1)
esta dada por

B A /(A−1)
TA ≃ (24)
(ln η −1 ) + 1.5 ln(m B /T)

Esta T sera mucho menor que B A ; para 2H. 3 He, y 4 He, y su valor es:

{0.07, 0.11, 0.28 MeV}, respectivamente.

Asi, aun cuando el T.E. es mantenido, la sintesis significativa de los nucleos

puede ocurrir solo cuando T ≲ T A = 0.3 MeV , y no a T’s mayores.

Si tal es el caso, entonces esperariamos una produccion significativa (X A ≲ 1)

de las especies nucleares A, a temperaturas T ≲ T A .

Pero sucede que la tasa de las reacciones no es suficientemente alta como

para mantener el T E entre las especies.

Se debe determinar las T’s a las cuales el T E puede mantenerse y rehacer los

calculos para encontrar las fracciones de masa en no-equilibrio.

se emplearon las densidades, n p y n n , en equilibrio, en el anterior analisis,


85

en T E la interconversion entre n’s y p’s es posible por los procesos de las

interacciones debiles

n + νe ⇆ p + e n + e+ ⇆ p + ν e

y el decaimiento: n ⇆ p + e + ve

De la conservacion del potencial quimico en esas reacciones, se encuentra que

(µ n − µ p ) = (µ e − µ ν ) ≃ 0 puesto que µ e ≃ 0, µ ν ≃ 0.

entonces el cociente (n /p) sera:

nn = X n = exp(−Q/T ) (25)
np Xp

Este cociente sera mantenido constante en tanto que las reacciones n-p

sean suficientemente rapidas. Pero cuando la tasa de reacciones Γ sea

menor que la tasa de expansion H, cuando la T tiene un valor T D , el

(n/p) queda ”congelado” a tener el valor exp(-Q/ T D ).

El unico proceso que puede continuar a cambiar este cociente, sera el

decaimiento del neutron libre . Y éste continuara a disminuir este cociente

hasta que todos los neutrones fueron usados en formar los nucleos atomicos.

Luego de unos calculos laboriosos [Padmanabhan, 2002]se calcula la T D

y las tasas Γ. Estas caen debajo de la tasa de expansion alrededor de:

T D ≃ (0.8 − 0.7)MeV
86

Asi, el T E entre n’s y p’s existe solo para T ≳ T D ≃ 0.8 MeV

Cuando T D ≃ 0.7 MeV, la hipotesis del T E ya no es valida, y el

cociente (n / p) = exp(-Q/ T D ) ≃ 1/6 el ”freeze-out”

que implica las abundancias: X n ≃ (1/7), X p ≃ (6/7).

Puesto que T A < T D , para todos los nucleos ligeros, ninguno de estos

existira en cantidades significativas a esta T D . Por ejemplo, el 2 H

contribuye solo con una fraccion de masa X 2 ≃ 10 −12 , a esta temperatura.

La unica manera de que los n’s sobrevivan es a traves del proceso de sintesis

nuclear de los elementos ligeros

Conforme la T cae mas aun hasta valer: T = T He ≃ 0.28 MeV, una

cantidad significativa de He podria haber sido producida si las tasas de las

reacciones fueran suficientemente altas. Estas reacciones:

D(D,n) 3 He 3
He(D,p) 4 He
D(D,p) 3 H 3
H(D,n) 4 He
D(D,γ) 4 He

son todas basadas en el D, 3 He y 3 H y no suceden suficientemente rapido

porque las fracciones por masa, X A , del D, 3 He, y 3 H son aun muy

pequeñas: {10 −12 , 10 −19 y 5x10 −19 } cuando T ≃ 0.3MeV.

Las reacciones n + p ⇆ D + γ llevaran a un cociente equilibrio-abundancia del


87

D, dado por:

npnn mpmn 3/2 (2πkT) 3/2


nD =
4
mD exp(−B/kT)
3
(2πℏ) 3 n

= exp 25.82 − ln Ω B h 2 T 3/2 2.58


10 −
T 10

# la linea corta vertical en la figura 4.2 indica la temperatura 0.105x10 10 K

en la cual la abundancia del D en equilibrio pasa a traves de la unidad para:

Ω B h 2 = 0.013. De la ec.anterior vemos que la configuracion salta abruptamente

de neutrones libres a deuterones, con la mayoria de la produccion del D

ocurriendo en esta temperatura critica. La tasa de la reaccion previa, es:

<σ v> ≈ 4.6x10 −20 cm 3 /seg, implicando que: n σ v t >> 1

alrededor de este instante, asi ”cocinando” a los mas de los neutrones libres, en
deuterones.

Estas abundancias llegan a ser casi la unidad solo cuando T ≲ 0.1 MeV; asi,

solo a esta T estas reacciones pueden ser lo suficientemente rapidas como para

producir una abundancia de 4 He. Cuando la T llega a ser ≲ 0.1 MeV las

abundancias del D y del 3 H aumenta y estos elementos reaccionan posteriormente,para

producir 4 He. Aqui se ha pasado el llamado ”cuello de botella del deuteron”

La abundancia resultante del 4 He puede ser facilmente calculada suponiendo

que todos los neutrones acaban formando al 4 He.

Puesto que cada nucleo de 4 He tiene dos neutrones, se pueden formar (n n /2)
88

nucleos de 4 He (por unidad de volumen). Asi la fraccion de masa del 4 He,sera

4(n /2) 2(n/p)


Y = n +n n = = 2 x c (donde x c es la abundancia de n’s al
n p 1 + (n/p)

tiempo de la produccion del D) (n = n n , p = n p ) (26)

Para Ω B h 2 = 0.013, x c ≈ 0.11, dando: Y ≈ 0.22. Aumentando la densidad

barionica hasta valer 1, hara que Y ≈ 0.25. Un ajuste razonable al cociente

n /p en el tiempo de la formacion del D, es dado por:

n n ≃ 0.613(Ω h 2 ) 0.04 (N /3) 0.2


np B ν

Un ajuste mas exacto para la dependencia de la abundancia del He de varios

parametros, es dada por:

Y = 0.226 + 0.025 logη 10 + 0.0075(g ∗ − 10.75) + 0.014[τ 1/2 (n) –10.3 min]

donde η 10 mide el cociente barion/foton actual, por medio de la relacion:

Ω B h 2 = 3.65x10 −3 T0 η 10
2.73 K

g ∗ es el numero efectivo de grados de libertad relativistas que contribuyen a la

densidad de energia, y τ 1/2 es el promedio de vida del neutron: 886.7±1.9 seg.

Los mejores ajustes, con errores tipicos, a las abundancias de: D, He3, y Li

calculadas de la teoria, para el rango η = 10 −10 —10 −9 , son:

−1.6
D η
Y2 ≡ = 3.6x10 −5 ± 0.06
H p 5x10 −10
89

−0.63
3
He η
Y3 ≡ = 1.2x10 −5 ± 0.06
H p 5x10 −10

−2.38
7
Li η η 2.38
Y7 ≡ = 1.2x10 −11 ± 0.2[ + 21.7 ]
H p 5x10 −10 5x10 −10

Cuantitativamente podemos entender estos resultados como sigue:

El cociente (n/p) en la epoca del ”freeze-out” (la exclusion), t D , era (1/6);

desde t D hasta el tiempo de la nucleosintesis, t NS , una cierta fraccion de n’s

habria decaido, disminuyendo a este cociente. Puesto que el freeze-out ocurrio

cuando T D ≃ 1 MeV, t D ≃ 1 s y la sintesis del 4 He ocurrio cuando

T NS ≃ 0.1 MeV, t NS ≃ 3 minutos, el factor

del decaimiento sera: exp(-t N /τ n ) ≃ 0.8 MeV, asi, el valor de (n/p) al tiempo

de la NS, sera de: ~0.8 x (1/6) ≃ (1/7), y esto da: Y ≃ 0.25.

Cuando las reacciones que convierten el D y el 3 H en 4 He, proceden, la

densidad numerica del D y del 3 H es agotada y las tasas de reacciones

[que son proporcionales a: Γ ∝ X A (η n γ ) < σv >] se hacen pequeñas.

Estas pronto se excluyen o cancelan (freeze-out) dejando una fraccion residual

del D y del 3 H ( ~10 −5 a 10 −4 )

puesto que Γ ∝ η es claro que la fraccion de (D, 3 H) que queda sin

reaccionar disminuira con la densidad η.


90

En contraste, la sintesis del 4 He [que no esta limitada por ninguna tasa]

no depende de η y depende solo del cociente (n /p) cuando T≃ 0.1 MeV.

La produccion de elementos aun mas pesados -aun esos como 16 C, 16


O

que tienen energias de amarre mayores que la del He, esta grandemente

suprimida en el Universo primigenio. Dos factores son responsables de esta

supresion: (1) Reacciones directas entre dos nucleos de He o entre H y He

conducirian a nucleos con masas atomicas de 5 y de 8, estas reacciones no

conducen a ninguna sintesis posterior.[la interaccion de 3 nucleos:

4
He + 4 He + 4 He  12
C, es suprimida a causa de la baja densidad numerica

de los nucleos de He; es esta reaccion (”triple-α”) que ayuda a la sintesis

posterior de elementos mas pesados, en el interior de las estrellas]

Pero la no-existencia de nucleos estables con numero de masas 5 y 8 origina

otro ”cuello de botella”, no existen isotopos estables con esas masas.

(2) para que las reacciones procedan es necesario que los nucleos venzan a

sus barreras electricas Coulombianas repulsivas.

La probabilidad de atravezar las barreras Coulombianas (efecto Cuantico)

esta gobernada por el factor F = exp[-2A 1/3 (Z 1 Z 2 ) 2/3 (T/ 1 MeV) −1/3 ]

donde A −1 = A −1 −1
1 + A 2 . Para nucleos pesados (con Z grande), este factor
91

suprime a la tasa de las reacciones.

Cantidades pequeñas (alrededor de 10 −10 a 10 −9 , por masa)de 7 Li son

producidas por las reacciones

4
He( 3 H, n) 7 Li o por la 4
He( 3 He,γ) 7 Be

seguidas por un decaimiento de 7 Be en 7 Li.

el primer proceso domina, si η ≲ 3x10 −10 y el segundo, para

η ≳ 3x10 −10 . En el segundo caso, una cantidad pequeña (10 −11 ) de 7 Be

queda como un residuo.

Dadas las diferentes tasas de las reacciones nucleares, las abundancias

primordiales se calculan al integrar numericamente las ecuaciones diferenciales

relevantes. El dato de entrada mas incierto en los calculos es la tasa del

decaimiento del neutron, la vida-media del neutron τ ≡ τ n ln 2 = 10.5 ± 0.2 min

se conoce solo hasta un 2% de exactitud.

Todas las tasas de las I D,: Γ ∝ G 2F (1 + 3g 2A )T 5 son proporcionales a

T 5 . Un aumento en τ disminuye a todas las Γs y ocasiona que el freeze-out


τ

[determinado por la ec. H(T D ) = Γ(T D )] ocurra a una mayor T.

5
Puesto que H ∝ T 2 , y: Γ ∝ Tτ encontramos que T D ∝ τ 1/3 .

Cuando T D aumenta, el valor de (n /p) tambien aumenta en el tiempo del


92

freeze-out, resultando en un valor mas grande para el 4 He.

Los cambios en las demas abundancias no son significativos porque estos

cambios estan dentro de los errores observacionales actuales.

Los dos parametros cosmologicos principales sobre los cuales dependen los

resultados son: g, el numero de grados de libertad de spin (a una T ≃ 1 MeV)

y: η Un aumento en la g aumenta a la H(T) ∝ g 1/2 T 2 y lleva a una T

mas alta cuando sucede el ”freeze-out” T D ∝ g 1/6 , y a una mayor abundancia

del 4 He. La dependencia en η es mas complicada. puesto que las fracciones

por masa: X A ∝ η A−1 , un valor mas grande de η permitira a las abundancias

del D, 3 He, y 3 H aumentar en un tiempo anterior y asi conducir a una formacion

mas temprana del 4 He. Puesto que el cociente (n /p) es mayor a tiempos

anteriores, esto rsultara en mayor 4 He. Pero este cociente solo varia lentamente

con el tiempo cuando T ≃ 0.1 MeV, y de aqui esta dependencia es suave.

La cantidad del D y 3 H residuales depende mas fuertemente, de η ; disminuye

como η −k con k ≃ 1.3. Los canales dominantes para la produccion del 7 Li

son diferentes para η ≲ 3x10 −10 y para η ≳ 3x10 −10 .

Este hecho lleva a un minimo local en la abundancia del 7 Li alrededor de

η ≃ 3x10 −10 , donde ni uno ni otro proceso es muy eficiente.


93

Los valores calculados y los medidos para varias abundancias se muestran en la


#
e indican, con certeza razonable, que
(i) (D / H) ≳ 1x10 −5
(ii) [(D + 3 He)/H] ≃ (1 − 8)x10 −5
(iii) ( 7 Li / H) ~10 −10
(iv) 0.236 < ( 4 He / H) < 0.254.

Estas medidas son consistentes con las predicciones teoricas si τ vale:

10.3 min ≲ τ ≲ 10.7 min, y η = (3 − 10)x10 −10 . (27)

Y puesto que η = 2.68x10 −8 Ω B h 2 , esto lleva a la importante conclusion:

0.011 ≤ Ω B h 2 ≤ 0.037 (28)

cuando es combinado con las cotas conocidas al factor h: 0.4 ≦ h ≦ 1,

se restringe a la densidad barionica del Universo a valer:

0.011 ≦ Ω B ≦ 0.23 (29)

estas son las cotas mas conservativas a la Ω, hoy.

Y muestra que, si no hubieran otras contribuciones a la densidad, por ser menor

la densidad a la densidad critica, el Universo debe ser abierto.

Pero aqui surge el problema de la materia obscura, que complica la situacion,

pues debe agregarse su densidad a la total.

Asi, las abundancias de los elementos dependen del cociente (n / p) en la epoca

del ”freeze-out”. Si algun mecanismo fisico puede ser construido tal que

distribuya a los n’s y p’s diferentemente en el espacio, o sea que no haya

homogeneidad, entonces los resultados de la NS variaran de lugar en lugar.


94

Tales modelos cambiaran las cotas a la Ω B deducidas anteriormente.

Sucede que,sin embargo, no es posible aun producir modelos viables en los

cuales la Ω B =1.

Puesto que la produccion del 4 He depende de g, el valor medido del 4 He

restringe al numero (N ν ) de neutrinos ligeros (con m ν ≲ 1 MeV que habrian

sido relativistas cuando la T ≃1 MeV).

Las abundancias son predecidas mejor si se toma el valor N ν = 3, no tan

consistentes, con N ν = 4, y si N ν > 4, no hay concordancia.

Las cotas medidas en laboratorios, del numero total de particulas neutrinos

que son menos masivas que (m z /2) ≃ 46 GeV y se acoplan al boson Z 0 ,

es de N ν = 2.79 ± 0.63.

Esto se determina al medir la anchura del decaimiento del Z 0 ; cada particula

con masa menor que (m z /2) contribute con cerca de 180 MeV a este ancho.

Esta cota es consistente con las observaciones cosmologicas.

Debe señalarse que la determinacion observacional de las abundancias

primordiales no es inmediata, y debemos cambiar a una cantidad de procesamiento

de datos para llegar a los numeros finales. Sumarizaremos brevemente estos

asuntos empezando con la del Deuterio, la cual es crucial en establecer las cotas
95

a la fraccion de bariones.

Hay dos ventajas al usar el D para medir la densidad barionica. La primera

surge de la sensitividad exponencial de tal abundancia con la densidad barionica,

permitiendonos, asi, determinar a η con una exactitud de ~5% si la abundancia

del D se conoce con una exactitud de ~10%. Y el D puede ser destruido durante

la evolucion estelar, pero no ser creado; de aqui que cualquier abundancia del D

observada, es una cota mas pequeña a la abundancia primordial, asi permitiendonos

poner una cota superior a la densidad barionica.

Absorbedores Lyman-α de alto corrimiento, permiten,en principio,la determinacion

directa de la abundancia del D en forma pura, primordial. En la practica, tenemos

ahora cuatro de tales candidatos de medidas en las cuales los resultados no son

conclusivos si no inconsistentes. Los errores sistematicos surgen de la reduccion de

datos y del hecho que las lineas espectrales del D necesitan ser distinguidas de las

lineas del hidrogeno que estan corridas debido a la velocidad.


#
El Desacoplamiento de la Materia y la Radiacion

A temperaturas debajo de 0.1 MeV, los principales constituyentes del Universo

seran el nucleo de Hidrogeno (un proton), Helio-4, electrones, fotones y

neutrinos desacoplados. Si m e = 0.5 MeV los iones y electrones puden ser


96

considerados como no-relativistas.

Estos interactuan entre si y con fotones por varios procesos electromag-

neticos: brehmstralung, dispersiones de Compton y de Thomson, y de Coulomb

entre particulas cargadas, la re-combinacion: (p+e ⇆ H + γ)

Decidir cuando esos procesos pueden mantener el T E, (termalizacion)

entre constituyentes, debemos comparar las varias tasas de las interacciones,

con la tasa-velocidad de la expansion.

El promedio del tiempo libre para dispersion de Coulomb entre electrones, es:

1/2 −2
t ee ≃ (n e σ v) −1 ∝ n −1 (e 2 / T) −2 = n m e2 1
e (m / T) (30)
1/2
T T π ln Λ

donde ln Λ se origina de choques distantes y vale ~30 [Lifshitz,1981]

La densidad de electrones libres es n e , puesto que la recombinacion cambia a

este numero, escribiremos n e = x e n B ,donde x e es la fraccion de las particulas

cargadas que no se han combinado para formar atomos.

Veremos mas adelante que x e es casi la unidad para T ≳ 1 eV y disminuye

rapido a un valor de ~10 −5 , cuando T ≈0.1 eV . Insertando valores, tenemos:

t ee = 1.35 s(T/1 eV) −3/2 (x e Ω B h 2 ) −1 (31)

el cual es mucho mas pequeño que la escala de tiempo de la expansion

H −1 (T) = 1.46x10 12 s(T/1eV) −2 (para t < t eq ) (32)


97

H −1 (T) = 1.13 x10 12 s(Ω h 2 ) −1/2 (T/ 1eV) −3/2 (para t > t eq )

en todo tiempo. (Aun cuando x e ha caido a un valor final de 10 −5 ,

t ee << H −1 ). Un calculo similar mostrara que los iones y los electrones

tambien interactuan con una tasa suficientemente rapida.

Asi estas dispersiones pueden mantener facilmente la distribucion termica

de la materia (termalizacion).

La igualdad de las temperaturas entre la materia y la radiacion tiene que ser

mantenida por la interaccion entre fotones y electrones.

La forma mas simple de la interaccion entre estos, es la dispersion de Thomson

no-relativista, a baja energia, con el tiempo-libre-promedio de

t t hom = n e σ1 c = 6.14x10 7 seg(T/1eV) −3 (x e Ω B h −2 ) −1 (33)


T

2
donde σ T = 8π e2 es la seccion de dispersion de Thomson.
3 mc

Pero este proceso, no puede ayudar en la termalizacion, porque no hay

intercambio de energia entre foton y electron en el limite de la dispersion de

Thomson. La dispersion con tal intercambio es llamada: dispersion de Compton

En adicion a esta, el ”bremsstrahlung” (radiacion por frenado) y su proceso

inverso:(la absorcion libre-libre) puede tambien a ayudar a mantener el T E

entre los fotones y la materia. Estos son los procesos para ser estudiados.
98

Veremos que la dispersion de Thomson es el mecanismo dominante a altas T’s.

La escala de tiempo de este proceso es calculada como sigue:

La trayectoria-libre-promedio de un foton entre dos colisiones es:

λ γ = (σ T n e ) −1

Asi el foton, al viajar una distancia ℓ, ejecuta un camino aleatorio, y sufrira de

N colisiones, donde: N 1/2 λ γ = ℓ .

El cambio fraccional de la frecuencia en cada dispersion de Thomson, es:

(δν/ν) ≃ (v /c) 2 ≃ (T/m).

Tratando esto como otro camino aleatorio en espacio de frecuencias, podemos

determinar el cambio neto en la frecuencia luego de N colisiones, a ser:

(δν/ν) ≃ N 1/2 (T /m) = (ℓ /λ γ )(T /m).

El intercambio de energia por dispersion de Compton puede ser considerado

efectivo cuando (δν/ν) ≃1, lo cual da la escala temporal:

tc ≃ λγ m
T
= n e1σ T m
T
(34)

note que t c es mayor que la escala temporal de la dispersion Thomson, por el factor

(m / T). Este factor es mucho mayor que 1, en el rango de temperaturas en el que

estamos interesados. Substituyendo numeros, tenemos:

tc ≃ λγ m
T
= 3.0x10 13 s(Ω B h 2 x e ) −1 (T /1eV) −4 (35)

comparando con H −1 , encontramos que:


99

−2
tc = T (36)
H −1 −1/2
4.54 x e (Ω B h 2 ) −1/2 eV

Asi este proceso es importante en mantener el T E entre materia y radiacion

para T ≳ 5 eV, correspondiendo a un corrimiento z > 1.7 x 10 4 .

Los fotones son fuertemente influenciados por las particulas cargadas, hasta este

valor del corrimiento al rojo.

# para comparar, consideremos la escala de tiempo de la radiacion de frenado

inversa, (llamada ”absorcion libre-libre” pues el electron absorbe un foton, inversa-

mente a la radiacion por frenado). Para un plasma con temperatura T, la escala de

tiempo para este proceso de absorcion, t ff (ω), esta dado por:


(37)

y para fotones con frecuencia ω ≃ T , tenemos


(38)
#: (39)
Asi, t ff deja de ser efectiva a una muy alta T ≳ 10 4 eV.

Es de notar que la dispersion de Compton no cambia el numero de fotones, asi

este proceso solo, nunca puede conducir a un espectro de Planck, si el sistema

originalmente tenia el numero incorrecto de fotones para una energia total,dada.

Y puesto que la radiacion por frenado y su inverso, pueden cambiar el numero de

fotones, ellos pueden llevar a una verdadera termalizacion.

En este contexto particular, el sistema tiene el numero correcto de fotones,

a causa de las condiciones iniciales.


100

El analisis anterior muestra que hay varios procesos que pueden mantener a la

radiacion y a la materia fuertemente acopladas hasta una temperatura de cerca de

unos pocos de electron-volts, con tal que exista un numero suficiente de particulas

cargadas libres (i.e.: x e ≈1).

Un agotamiento de estas, ocurre por el proceso de (re)combinacion, en el cual los

electrones y los iones se combinan para formar sistemas atomicos neutros.

Por sencillez consideremos solo la formacion del atomo de Hidrogeno neutro (H).

Su energia de amarre es de 13.6 eV. Cuando el Universo se enfria a temperaturas

por debajo de este valor, esta formacion de estructuras es favorecida energeticamente.

Pero, como en el caso de la NS, la alta entropia retrasa este proceso hasta que la

temperatura cae a un valor mucho mas pequeño, T atom ≃ 0.29 eV.

Debajo de esta T, los mas de los p’s y e’s forman atomos neutros, dejando solo una

pequeña fraccion (~10 −5 ) de e’s y p’s libres. La desaparicion de particulas cargadas

libres reduce la seccion de dispersion entre los fotones y las particulas, asi aumentando

la trayectoria-libre-promedio de los fotones (λ γ ). Cuando λ γ ≳ cH −1 , los fotones

se desacoplan del resto de la materia; esto sucede cuando T = T dec ≃ 0.26 eV.

El Universo se hace transparente y es el origen de la radiacion de fondo (microondas)

La Temperatura, T atom , a la cual los atomos de H son formados, puede ser calculada
101

por metodos similares a los empleados anteriormente, si hacemos las hipotesis

simplificativas: (i) el sistema esta en T E, y (ii) el proceso de recombinacion procede

a traves del e y el p combinandose para formar un atomo de H en el estado base.

(ninguna de estas hipotesis es completamente correcta, discutiremos las modificaciones

requeridas en un escenario mas realista, mas adelante).

En T E, las densidades numericas de protones (n p ), electrones (n e ) y atomos de

hidrogeno (n H ) estan dadas por la formula usual, de Maxwell-Boltzman:

3/2
ni = gi miT exp[ 1 (µ i − m i )] (37)
2π T
donde i = {e − , p, H}. El equilibrio es mantenido por la reaccion: p + e ⇆ H + γ

El balance del potencial quimico en esta reaccion implica que µ p + µ e = µ H .

usando esta relacion y expresando a µ p y a µ e en terminos de n p y n e , n H , se tiene

gH −3/2
la ec. de Saha: nH = meT B
(38)
g p g e n p n e 2π exp T

donde B = m p + m e – m H = 13.6 eV es la energia de amarre, y aproximamos:

m p ≈ m H en el prefactor, m −3/2 . Introduciendo la ”ionizacion fraccional”, x i ,

para cada una de las especies de particulas y usando los hechos: n p = n e

y: n p + n H = n B , se sigue que: x p = x e y: x H = (n H / n B )= 1 – x e .

la ec. (38) puede ser escrita en funcion de x e solo:

1 − x e = 4 2 ς(3) η T 3/2
exp(B/T) ≃ 3.84η mTe
3/2
exp(B/T) (39)
x 2e π me
102

donde η = 2.68x10 −8 (Ω B h 2 ) es el cociente (bariones/fotones).

Podemos definir T atom como la temperatura a la cual el 90% de los e’s

se han combinado con p’s: i.e. cuando x e =0.1. Esto lleva a la condicion

(Ω B h 2 ) −1 τ −3/2 exp(−13.6τ −1 ) = 3.13x10 −18 (40)

donde τ = (T/1eV).Para un valor dado de (Ω B h 2 ) esta ec.puede ser

resuelta por iteracion. Tomando logaritmos e iterando una vez tenemos

τ −1 ≃ 3.084 − 0.0735 ln(Ω B h 2 ) (41)

con el correspondiente corrimiento al rojo (1 + z) = (T/ To) dado por

(1 + z) = 1367[1–0.024 ln(Ω B h 2 )] −1 (42)

para Ω B h 2 = {1, 0.1, 0.01} tenemos:

T atom ≃{0.324 eV, 0.307, 0.292 eV} respectivamente.

Estos valores corresponden a un corrimiento de: z ={1367, 1296 y 1232}

Para el beneficio de definitividad, los valores promedio:

(1 + z) atom ≡ 1300; T atom = To(1+z) atom = 0.308 eV (43)

seran adoptados en una discusion futura, como la era de la formacion de los


atomos.
Puesto que el analisis previo esta basado en densidades en equilibrio,

es importante checar que la tasa de las reacciones p + e ⇆ H + γ

es lo suficientemente rapida como para mantener el equilibrio.


103

La seccion transversal promediada termicamente para el proceso de

recombinacion esta dada por

< σ v > ≃ 4.7x10 −24 (T / 1eV) −1/2 (44)

la seccion transversal para la interaccion, es proporcional al cuadrado de la

longitud de onda, de Broglie, λ 2 ∝ v −2 ; de aqui, σ v tiene una dependencia

v −1 ∝ T −1/2 . La tasa de reacciones, sera asi:

Γ = n p < σ v > = (x e η n γ ) < σ v > (45)

= 2.374 x 10 −10 cm −1 τ 7/4 e −(6.8/τ) (Ω B h 2 ) 1/2

En obtener esta expresion, hemos aproximado la ec. (39) por la

1/2
−3/4
xe ≈ π η −1/2 mTe exp(−6.8/τ) (46)
4 2 ς(3)

la cual es valida para x e <<1. Esta Γ tiene que ser comparada con la tasa de

expansion, H, del Universo. Tomando al Universo a ser dominado por la materia

a esta T, tenemos:

H = 2.945 x10 −23 cm −1 (Ω B h 2 ) 1/2 τ 3/2 (47)

igualando las dos ecs., tenemos:

τ −1/4 e −(6.8/τ) = 8.06x10 12 (Ω B h 2 ) 1/2 (48)

Esta ec. puede ser resuelta tambien al tomar logaritmos e iterar la solucion.
encontramos que:
104

τ −1 ≃ 4.136 − 0.074 ln(Ω/Ω B ); (1 + z) = 977[1 − 0.017 ln(Ω/Ω B )] −1 (49)

Para Ω ≃ Ω B , esto da T D ≃ 0.24 eV. El hecho que T D < T atom justifica la

hipotesis del T E usada en el calculo previo. Hay, sin embargo, otras dificultades

con esta hipotesis, las cuales discutiremos luego.

Cuando la tasa de las reacciones cae debajo de la tasa de expansion, Γ < H,

la formacion de los atomos neutros cesa, Los electrones y protones restantes

tienen una probabilidad muy pequeña de combinarse unos con otros.

La fraccion residual puede ser calculada como la fraccion presente cuando

T = T D , i.e.: x e (T D ). Combinando las ecs. (46) y la (48), se tiene:

−1
x e (T D ) ≃ 7.382 x 10 −6 TD Ω 1/2 (50)
1eV ΩBh
para T D ≃ 0.24 eV, esto da:

x e (T D ) ≃ 3x10 −5 Ω 1/2 (51)


ΩBh

asi una pequeña fraccion de e’s y de p’s ( ~10 −5 ) permaneceran libres en el


Universo.

La formacion de los atomos afecta a los fotones, los cuales estaban

en T E con el resto de la materia debido a los varios procesos de dispersion

descritos anteriormente. Es facil de verificar que las escalas temporales de la

dispersion de Compton y de la absorcion de fotones (libre-libre) se hacen

mucho mas grandes que la escala temporal de la expansion cuando x e cae a


105

su valor residual.

El unico proceso de dispersion que es aun poco operacional es la dispersion

de Thomson; este proceso meramente cambia la direccion del foton, sin

algun cambio de energia. Su unico efecto es hacer que el foton ejecute un

camino aleatorio. Cuando la densidad numerica de las particulas cargadas

disminuye, aun esta tasa de interacciones, Γ, de los fotones, disminuye y,

eventualmente, para alguna T = T dec , llega a ser menor que la tasa de expansion.

Para T < T dec , los fotones se desacoplan del resto de la materia.

La tasa de la dispersion de Thomson esta dada por:

Γ = σ ne = σ xe nB = σ xe η nγ

= 3.36x10 −11 (Ω B h 2 ) 1/2 τ 9/4 exp(−6.8/τ) cm −1 (52)

comparando esta ec. con la tasa de expansion, H

H = 2.945 x 10 −23 (Ω h 2 ) 1/2 τ 3/2 (53)

tenemos la condicion

τ −3/4 e 6.8/τ = 1.14x10 12 (Ω B /Ω) 1/2 (54)

donde τ = (T dec /1eV). Resolviendo esta con una iteracion, nos da:

τ −1 ≃ 3.927 + 0.0735 ln(Ω B /Ω) (55)

la cual corresponde a los parametros


106

T dec ≃ 0.26 eV; (1 + z dec ) ≃ 1100 (56)

Para T ≲ 0.2 eV, la materia neutral y los fotones se desenvuelven como

sistemas no-acoplados. El parametro T que caracteriza el espectro de Planck

continua a disminuir como R −1 a causa del corrimiento al rojo de los fotones.

La materia neutral se comporta como una mezcla gaseosa de H y de He.

Debe ser subrayado que tienen lugar tres eventos distintos en el Universo

cuando la T ≃ (0.3 − 0.2) eV :

(1) los mas de los p’s y de e’s se combina para formar atomos de H

(2) el proceso de recombinacion se detiene, dejando a una pequeña


fraccion de e’s y p’s libres, cuando la tasa de las interacciones para:
p + e ⇆ H + γ cae por debajo de la tasa de expansion.

(3) la trayectoria-libre-promedio del foton se hace mayor que c / H,


desacoplando a la radiacion de la materia.

Esto eventos ocurren casi en la misma epoca porque η ≃ 10 −8 y Ωh 2 ≃ 1

Ω B ≲ 1. Para un conjunto diferente de valores de estos parametros, estos

eventos podrian ocurrir en epocas diferentes.

Despues del desacoplamiento, la T de los atomos neutros disminuye mas rapido

que la de la radiacion. La disminucion de esta T, esta gobernada por la ec.

dT m + 2 R ′ T = 4π 2 σ x T 4 (T – T ) (57)
dt R m 45 T e m m

donde T es la temperatura de la radiacion. El termino 2(R’/R)T m


107

describe el enfriamiento debido a la expansion mientras que el termino en el

lado derecho da cuenta de la transferencia de energia de la radiacion a la materia.

Este proceso esta ahora gobernado por el tiempo de relajacion para la materia,

el cual es dado por

t materia ≃ 1 m (58)
σT x e n γ T

A altas temperaturas (x e ≃ 1), t mater ≃ t c (n e / n γ ) << t c ;

entonces: T m ≈ T hasta un alto grado de exactitud.

Cuando x e se hace pequeño, t mat aumenta y la transferencia de energia de la

radiacion a la materia llega a ser menos y menos efectiva.

El termino del enfriamiento adiabatico hace que T m caiga mas rapido

que la T rad . El tiempo de relajacion t mat llega a ser del orden del tiempo de

expansion cuando T ≃ 0.27 eV (z ≃1150) y (t ≃10 13 s ~10 6 años)

A temperaturas mas bajas la T mat cae un poco debajo de Tm ∝ R −2 .

La fraccion pequeña de materia ionizada ( n e ≃ n p ≃ 10 −5 n B ),sin embargo,

continua a ser afectada por los fotones. La trayectoria-libre-promedio,


λe = 1
σT n γ
que gobierna este proceso es mucho menor que la del foton , porque n γ >>n e .

La escala de tiempo correspondiente t electron = (n e / n γ ) t c ,sera


108

t electron = 2.15 x 10 6 s (T / 1 eV) −4 (59)

la que conduce al cociente

t elec = (Ω h 2 ) 1/2 (T / 60 K) −5/2 (60)


B
H −1
Asi los e’s libres estan amarrados al campo de radiacion hasta un z ~20.

(En otras palabras: el pequeño numero de e’s tiene muchas colisiones con un

numero pequeño de fotones, aunque los mas de estos no son afectados)

Este proceso es, asi, capaz de mantener la temperatura de los e’s libres al mismo

valor de T en el espectro de fotones hasta un z ≈ 20.

Por supuesto esta interaccion tiene muy poco efecto sobre los fotones, debido

al numero pequeño de particulas cargadas presente.

Discutiremos ahora las varias aproximaciones que se han hecho en los calculos

previos. Para empezar, note que hemos supuesto un proceso de recombinacion

que produce directamente un atomo de H en su estado base.

Este emitira un foton con una energia de 13.6 eV en cada recombinacion.

Si n γ (B) es la densidad de fotones en la radiacion de fondo, con energia B=13.6

entonces,

n γ (B) 16π 3 3x10 7


n ≃ n T exp(−B/T) ≃ (Ω B h 2 ) exp(−13.6/ τ) (61)

Este cociente vale uno cuando T ~0.8 eV (cuando z ≈ 3300) y disminuye

rapido a temperaturas mas bajas. Asi, a estas temperaturas, la adicion de fotones


109

con 13.6 eV debida a la recombinacion, aumenta significantemente la disponibilidad

de fotones ionizantes. Estos fotones energeticos tienen una alta probabilidad de

ionizar a los atomos neutros formados un poco tiempo antes.

(Esto es, la reaccion inversa H + γ  p + e, es incrementada) De aqui que este

proceso no es muy efectivo en producir un numero neto de atomos neutros.

El proceso dominante que opera realmente, es uno en el cual la recombinacion

##procede a traves de un estado excitado: (e + p  H* + γ; H* H + γ 2 )

Esto producira dos fotones cada uno, de los cuales tiene menos energia

que el potencial de ionizacion del atomo de H.

Los niveles 2P y 2S proveen la ruta mas rapida para la recombinacion; el decai-

miento del 2P produce un solo foton, mientras que el del 2S es atraves de dos

fotones. Puesto que el proceso inverso no ocurre a la misma velocidad, esta es

una recombinacion de no-equilibrio.

A causa de la complicacion anterior, la recombinacion procede a una tasa mas

lenta comparada con la predicha por la ec. de Saha.

La ionizacion fraccional actual es mayor que el valor predecido por la ec.de Saha

a temperaturas T ≲ 1300 K. por ejemplo, en z = 1300, estos valores difieren

por un factor de 3; en: z ≃ 900, difieren por un factor de 200.


110

Los valores de T atom , T dec etc., sin embargo no cambian significativamente.


# p.256 y 117

Los fotones emitidos durante la recombinacion no pueden ser termalizados

efectivamente, y asi, distorsionan el espectro de cuerpo negro, de Planck.

Las distorsiones estan en la parte de altas frecuencias ( ν / T > 30) del espectro,

que corresponde a: ν ≳ 1.5x10 12 Herz ( λ ≲ 0.02 cm) actualmente.

(El espectro de Planck tiene solamente 10 −10 de todos los fotones, en el rango

ν / T >30). Desafortunadamente, los nucleos galacticos y el polvo emiten muy

intensamente en la region λ < 3 x 10 −2 cm, completamente apantallando a esta

señal primordial.

Los fotones que se desacoplan de la materia en esta epoca (z ≈ 10 3 ) propaganse

libremente y estan presentes cuando z = 0 como radiacion termica de fondo,

llamada usualmente: radiacion de microondas, del fondo cosmico, (CMBR)

Siendo una reliquia de una epoca en la cual el Universo era 1000 veces mas pequeño

esta radiacion contiene informacion muy valiosa acerca de las condiciones fisicas

que prevalecian en aquella epoca.

# Universo muy primigenio y campos cosmologicos escalares


————————————————————————————–
COSMOLOGIA

La expansion, observada, del Universo es un resultado de cualquier modelo


111

cosmologico homogeneo e isotropico basado en la relatividad general.(EGR)

Pero,´por si misma, la expansion no nos da sufiuciente evidencia de lo que

generalmente es referido como: el modelo cosmologico de la gran explosion.

La GR en principio es capaz de describir la cosmologia de cualquiera dada

distribucion de materia, es muy afortunado que nuestro Universo aparece ser

homogeneo e isotropico en escalas grandes de distancias.

Juntas, estas propiedades nos permiten extender el Principio Copernicano al

Principio Cosmologico que enuncia que todas las posiciones espaciales en el

Universo son equivalentes.

La formulacion del modelo BB empezo en los 1940s con el trabajo de Gamow

y sus colaboradores Alpher y Herman, Con objeto de explicar el origen cosmo-

-logico de las abundancias de los elementos, propusieron que el Universo primigenio

era muy denso y muy caliente, y se expandio y se enfrio hasta su estado actual.

[ver la seccion de historia de la nucleosintesis al final de este trabajo]

En 1948 ellos predijeron una consecuencia directa de este modelo: la presencia de

una radiacion de fondo, reliquia, con una temperatura de 5 K. La cual fue observada

en 1964 como la radiacion, en la franja de microondas, con una T ~3 K

Y fue esto lo que señalo al modelo BB como la teoria perfecta para describir al
112

Universo.

El Universo de Robertson-Walker

Las propiedades observadas del Universo permiten describir su geometria y evolucion

en funcion de dos parametros que dan cuenta de su curvatura espacial y su expansion

estas funciones aparecen en la expresion mas general de una metrica espacio-temporal

de un espacio de 4 dimensiones, la cual tiene un subespacio maximamente simetrico

es la metrica Robertson-Walker:

2
dr
d s =d t −R (t)
2 2 2
2
+ r 2 (d θ 2 + sin 2 θ d φ2 ) (1)
1−kr

al re-escalar la coordenada radial, podemos elegir a la constante de curvatura, k, a

tomar solo los valores {+1,-1, 0} correspondiendo a unas geometrias cerrada,

abierta o plana, en este caso, es conveniente r-expresar a la metrica como:

d s 2 =d t 2 −R 2 (t) d χ 2 + S 2k (χ)(d θ 2 + sin 2 θ d φ2 )

donde la funcion S k (χ) es: {sinχ, χ, sinhχ} para k ={+1, 0, -1}.

La coordenada r, y el ”angulo” χ no tienen unidades; estas son llevadas por la

R(t) que es el factor de escala cosmologico que determina a las distancias propias

en terminos de las coordenadas co-movientes: r, θ, φ.

Una alternativa es definir un factor de escala sin unidades, a(t) = R(t)/ R 0


113

con: R 0 ≡ R(t 0 ), es R en nuestra epoca actual.el corrimiento al rojo (redshift)

El corrimiento cosmologico es una consecuenca directa de la expansion

Hubble, determinada por el factor de escala R(t). Un observador local que

detecta luz de un emisor lejano, observa un corrimiento en la frecuencia ν.

Se define al corrimiento como:

z ≡ ν e ν−o ν o ≃ vc12 (3)

ν e es la frecuencia de la luz emitida, ν o es la observada, y v 12 es la velocidad

relativa entre el objeto emisor y el observador. La definicion de z es valida en

todas las escalas de distancias, que relaciona al corrimiento con la velocidad

relativa, en esta forma simple solo es cierta en escalas pequeñas (menores que

las escalas cosmologicas) tal que la velocidad de la expansion no es relativista

(seria relativista, a muy alta velocidad, v ≲ c). Hay una generalizacion de esta

relacion, que incluye terminos de 2o.orden [Adler, Bazin, Schiffer, 1965, pag.351]

Para señales de luz, podemos usar la metrica R-W, y si la trayectoria espacio-

-temporal de la luz, satisface: d s 2 = 0, escribimos:

v 12 = R’δr = R’ δt = δR = R 2 − R 1
c R R R1

donde δr y δt son la coordenada radial y el intervalo temporal entre el emisor y el

observador. Asi, obtenemos una simple relacion entre el corrimiento y el factor


114

de escala: 1 + z = νν oe = R 2 (5)
R1

y este resultado no depende de la aproximacion no-relativista.

Las ecuaciones de movimiento de Friedman-Lemaitre

Las ecs. cosmologicas del movimiento son derivadas de las ecs.del campo

gravitacional, de Einstein

R αβ − 1 g αβ R = 8πG N T αβ + Λg αβ (6)
2

es comun suponer que el tensor de energia-momentum es para un fluido perfecto:

T αβ = −pg αβ + (p + )u α u β

donde g αβ es el tenor metrico descrito por la ec. (1)

p, es la presion isotopica y ρ, la densidad de la energia, y u =(1,0,0,0) es el

4-vector velocida del fluido isotropico en coordenadas co-movientes.

Con la fuente que es un fluido perfecto, las ecs. de Einstein llevan a las ecs. de

Friedmann-Lemaitre: (con la constante cosmologica Λ)

H(t) es el parametro de Hubble

H2 ≡ R’ 2
= 8π G N ρ − k + Λ (7)
R 3 R2 3

R” = Λ − 4π G N (ρ + 3p) (8)
R 3 3

La conservacion de la energia expresada por medio de la ecuacion


115

T αβ
;α ≡ ∇ α T
αβ
=0 conduce a una tercera ecuacion:

ρ ′ = −3H(p + ρ) (9)

[que puede ser derivada de las ecs. (7) y (8).]

esta ec.(9), tambien puede ser derivada de la 1a. ley termodinamica.

La ec. (7) tiene una analogia mecanica simple, si despreciamos a la Λ,

al interpretar el termino -k/ R 2 como una ”energia total”, observamos que

la evolucion del Universo es gobernada por una competencia entre la

energia potencial: 8πGρ/3 y el termino de energia cinetica: (R’/ R) 2 .

Para el caso con Λ = 0, es claro que el Universo debe estar expandiendose

o contrayendose (excepto en el punto de retorno anterior al colapso

en un Universo cerrado). El destino final esta determinado por la constante

de curvatura, k, para k = +1, el Universo colapsara enun tiempo finito,

para k = {0, -1}, el Universo se expandera indefinidamente. Estas simples

conclusiones pueden ser alteradas cuando Λ ≠ 0, o mas generalmente,

cuando (3p + ρ).

Definicion de los parametros cosmologicos

Las ecs. de Friedmann se pueden usar para definir una densidad critica, tal que
116

k = 0 cuando Λ = 0,

2
ρ c = 3H = 1.88x10 −26 h 2 kg/m 3 = 1.05x10 −5 h 2 GeV/cm 3 (10)
8πG N

= 1.88x 10 −29 h 2 g/cm 3

el parametro de Hubble es definido por: H ≡ 100 h km/seg⋅Mpc

 H −1 = 9.78 h −1 Giga-años (Gyr) (tiempo de Hubble)

[esto quiere decir que una galaxia añade 100 km/s a su velocidad de

recesion por cada Megaparsec (Mpc) de su distancia]

el factor h, llamado de ”ignorancia” es debido a que no se ha medido a H

con la maxima exactitud deseada.

El parametro de densidad cosmologico, Ω, es definido como el cociente:

Ω = ρ/ρ c (11)

El parametro de desaceleracion: q = – RR”


R’ 2

que caracteriza a la gradual disminucion de la expansion.

# Cosmologia del Big Bang

Podemos re-escribir la ec. de Hubble como: k /R 2 = H 2 (Ω − 1) (12)

y observar que cuando Ω > 1, k = + 1 (Universo cerrado)

cuando Ω < 1, k = – 1 (Universo abierto)

cuando Ω = 1, k = 0 (Universo espacialmente plano).


117

Es necesario, a veces, distinguir a las diferentes contribuciones a la densidad.

Es conveniente definir a los parametros de la densidad, actuales, para la

materia sin presion (Ω m ) y para las particulas relativistas (Ω r ), mas la

cantidad Ω Λ = Λ/3 H 2 . En modelos mas generales, esta densidad de energia

del vacio es variable, (Ω v ). Asi, es esta suma de densidades la que determina

el signo de la curvatura.

# Soluciones del Modelo estandar

Mucha de la historia del Universo en el model estandar SBB, puede ser descrita

facilmente al suponer que: o la materia o la radiacion domina la densidad total de

energia. Durante la epoca de la inflacion o tal vez aun hoy, si estamos viviendo en

un Universo que se acelera, dominacion por una constante cosmologica o por una

forma de energia obscura debe ser considerada. En lo que sigue, delinearemos las

soluciones a la ec. de Hubble cuando una sola componente domina a la densidad

de energia. Cada componente es distinguida por un parametro de la ecuacion de

# estado w = p/ρ.

Soluciones para una ecuacion de estado general

La ec. (9) puede reescribirse como: ρ ′ = −3(1 + w)ρ R’/ R y es integrada

facilmente, a dar: ρ ∝ R −3(1+ w)


118

Note que en timpos primigenios, cuando R es pequeña, el termino de curvatura

puede ser despreciado, en tanto que w > – 1/3.

El dominio de la curvatura ocurre en tiempos mas posteriores (si un termino de la

constante cosmologica no domina mas pronto). Para w ≠ −1, puede uno insertar

este resultado en la ec. de Hubble y si desprecia los terminos de curvatura y de la

constante Λ, es integrada facilmente, y se obtiene: R(t) ∝ t 2/3(1+ w) (13)

Un Universo dominado por la Radiacion

En el Universo primigenio caliente y denso, es apropiado suponer una ec. de estado

correspondiente a un gas de radiacion (o de particulas relativistas) para el cual

w = 1/3. En este caso se tiene la dependencia ρ ∝ R −4 . substituimos a w en la

ecuacion general R(t)∝ t 2/3(1+ w) , y tenemos:

R(t) = t 1/2 H= 1 (14)


2t

Un Universo dominado por la Materia

Las funciones que describen a las densidades disminuyen con el tiempo. Conforme

el Universo va evolucionando y expandiendose, y la densidad de radiacion es mayor

que la de materia, pero a partir de cierto instante, las curvas se cruzan y empieza a

ser mayor la densidad de la materia. Un gas sin presion (w = 0) conduce a la funcion


119

ρ ∝ R −1 . y: R(t)∝ t 2/3 H= 2 (15)


3t
# Un Universo dominado por la energia del vacio
—————————————————-

COSMOLOGIA ESTANDAR
La mecanica celeste del sistema solar confirma con magnifica precision a la teoria

de la relatividad general. La existencia de las ondas gravitacionales esta confirma-

da indirectamente. Y la mecanica cuantica relativista predice que deben existir los

propagadores de la fuerza gravitacional: los gravitones, bosones sin masa con s=2.

Hasta energias del orden de m p ≃ 10 19 GeV, la teoria esta bien esta-

blecida, con la posible incerteza sobre la existencia del termino Λ,

cosmologico, que Einstein tuvo que rechazar.[weinberg, 19xx]

Observaciones de un Pulsar, hechas en 1979 dan evidencia a favor de

tales ondas. Otra confirmacion de la teoria de la relatividad, se sigue de

checar el principio de equivalencia, (la igualdad de las masas: inercial y

gravitacional), la exactitud es impresionante: es de 10 −12 .

Esto significa que la ec. E = ∆m c 2 es valida, no solo para las fuerzas

nucleares y electromagneticas, sino tambien para la fuerza nuclear-debil.

Mediciones del campo magnetico de la Tierra y de Jupiter y de galaxias,

no muestra desviaciones de la electrodinamica de Faraday-Maxwell.

Esto quiere decir que la masa del foton es cero o extremadamente


120

pequeña, mucho menor que la cota obtenida en los experimentos.

Una era nueva en la interrelacion entre la Fisica y la Astronomia empezo

en ~1961, debido al desarrollo de la Cosmologia moderna y debido a

las confirmaciones experimentales del modelo del Universo caliente,

bautizado como: Cosmologia de la gran explosion.

La interfase entre la Fisica de Particulas Elemetales y la Cosmologia

ha emergido como una area de investigacion muy activa. Las teorias de

la GranUnificacion,GUT, nos dan el prospecto estimulante de calcular el

contenido de materia del Universo, de primeros principios.

Antes de esto,los fisicos de particulas no eran familiares con la Cosmologia

pero la situacion cambio mucho al darse cuenta de que estas teorias GUT

pueden resolver algunos problemas importantes de la Cosmologia.

[Para un curso detallado, hay varios libros de texto: Weinberg,

Peebles, Padmanabhan, Turner, Carroll, Peacok]

En esta seccion no damos un tratamiento muy detallado, sino discutiremos

la esencia de la Fisica evitando calculos detallados, en lo posible, para esto,

se dan unos datos de entrada, observacionales, y unos pocos relevantes

hechos cosmologicos:
121

(1) el Universo esta expandiendose con una cierta velocidad, o tasa, de

H 0 ~100 km /seg⋅Mpc

[Mpc = megaparsec = 10 6 parsec = 3.08x10 24 cm]

La ley de Hubble es: u = H 0 r

[ u es la velocidad de recesion de las galaxias, r, la distancia entre ellas]

La actual edad del Universo, τ es, burdamente, del mismo orden de

magnitud como 1/ Ho ~10 10 años.

Dada la teoria de Einstein, la relacion entre τ y el parametro de Hubble: Ho,

puede hacerse mas precisa. Actualmente, luego de 50 años de arduas

investigaciones, Ho no se conoce con precision maxima.

En los trabajos de Astrofisica, este parametro es escrito como

Ho = 100 h 2 , donde,h, es el ”factor de ignorancia” tiene su valor en el

intervalo 1/2 ≲ h ≲ 1, y la tasa de expansion depende del tiempo, t.

En escalas de distancia grandes, el Universo es homogeneo e isotropico,

La mayor distancia de que tenemos informacion es de ~c/H ≃ 5000 Mpc

en tal escala, desviaciones de la uniformidad e isotropia son menores que

10 −4 . La teoria del Universo en expansion conecta a la edad del Universo

t o con la tasa actual de expansion H o y con la densidad promedio, ρ.


122

A menor densidad, es menor la velocidad de expansion.

Para ρ  0, la edad, t o = R/u = 1/H.

Con la densidad que se incremente, la desaceleracion gravitacional llega a

ser importante. Esto significa que en el pasado, la expansion fue mas rapida,

tal que la edad es menor:

t o =f(Ω)/H = f(Ω)x18x10 9 años,

donde Ω = ρ/ρ c , y la funcion f es: f < 1.

la densidad critica, predicha por la relatividad general, es

2
ρ c = 3H = 6x10 −30 gramos/cm 3
8πG

[cuando ρ > 1, el Universo es cerrado, para ρ < 1, el Universo es abierto]

Una cota superior para la densidad de la materia, compatible con los valores

actuales de H y de t o es aproximadamente, ρ max ≃ 10 −29 g/cm 3 .

un valor mas probable es: ρ ≃ 2x10 −30 . Hay algunos datos indirectos

en favor de este resultado. La densidad promedio de la materia contenida

en las estrellas, relativa al volumen completo entre las galaxias y los clusters

es de ~5 x 10 −31 .

la cota superior a la ρ, parece ser confiable, puede ser usada para restringir

a la densidad de energia total de las formas de materia que no son observables


123

directamente. Esta idea fue aplicada a la Fisica de Particulas, por Zeldovich y

Smorodinsky en 1961.Ellos encontraron una cota a la densidad de neutrinos y

de gravitones que no pueden ser detectados directamente.

(2) el descubrimiento y la medicion de la radiacion cosmica de fondo (CMB)

ha establecido que el Universo esta lleno con fotones que tienen una

distribucion de ”cuerpo negro” correspondiente a una temperatura T 0, de

entre 2.7 K y 2.9 K. Asi, podemos calcular que existen cerca de 400

fotones por cada cm 3 .[usando ecuaciones de la Fisica estadistica Cuantica

calculando la energia total, a esa T, y dividiendo entre la energia de un

solo foton: E = h ν.]

Esta radiacion tiene una desviacion de la isotropia muy pequeña:

es del orden de 3 x 10 −4 (en unidades relativas ∆T/ T)

A causa de la casi nula interaccion de los fotones de la CMB con la materia

en el Universo, su espectro y distribucion espacial, da informacion sobre el

remoto pasado del Universo.

La expansion junto con la CMB conduce a la conclusion que en el pasado

la temperatura es mas alta. El espectro de la CMB concuerda con la pre-

diccion del Universo caliente (hot big bang) formulada por Gamow por vez
124

primera. Extrapolando la temperatura hasta etapas primigenias se obtiene:

T ≃ 10 10 K ≃ 1 MeV en un tiempo del orden de 1 seg. luego del ”principio”

T ~10 MeV para t = 0.01 seg. y asi sucesivamente, aproximadamente:

T(MeV) ≃ (t seg) −1/2 .

Para una T > 0.1 MeV, habrian electrones y positrones en equilibrio termico

con la radiacion. Cuando la temperatura se eleva, el equilibrio termico (T E)

se establece mas rapido que la tasa de la variacion de la temperatura.

(Puede haber una violacion del equilibrio, si la tasa de las interacciones cae

cuando la T se eleva). Asi para una T grande existe T E, y todas las particulas

con mc 2 ≲ T contribuyen al plasma en casi iguales cantidades, con la posible

excepcion de los gravitones.

(3) La densidad numerica de los nucleones en el Universo se conoce con

menor precision, es un problema muy dificil en Astronomia.

La masa gravitacional se infiere al analizar las rotaciones de galaxias o de

clusters de galaxias y aplicar el teorema del Virial.

asi, se construye un cociente: masa / luz. La densidad de masa de las

regiones muy lejanas se calcula al multiplicar este cociente por la

luminosidad observada de esa region.


125

ρN 8πGρ N
Los astrofisicos definen el cociente Ω N ≡ ρc ≡ 3 Ho 2

entre la densidad de nucleones y la densidad critica, predicha por la

Relatividad General, que hace que el Universo sea cerrado.

Puesto que Ho es incierta, el dato usualmente se da como la combinacion

Ω N h 2o . Los fisicos de particulas usan el cociente η = n b / n γ , :

la densidad de bariones entre la densidad de fotones. Y la traduccion es:

η ~ 3 x 10 −8 Ω N h 2o

El valor actual esta en el intervalo η ~ (0.3—10) x 10 −10

Este numero puede ser obtenido de la T de la CMB: 2.73 K, y de la densidad

de la materia: 5 x 10 −30 — 10 −31 g/cm 3

En el framework de las teorias con numero barionico y la entropia,

estrictamente conservadas, η es una constante definida por las condiciones

iniciales (i.e.: para una expansion adiabatica). Han habido intentos para

calcular este numero, teoricamente. Uno de estos es el marco de ideas

conocido como Principio Antropico [ Barrow y Tipler, 1988]

en el cual se intenta explicar la aparicion de la Vida y de la especie Humana

#en terminos de que los valores de las constantes de la naturaleza, p.ej. como la

carga electrica del electron y del proton, estan ajustadas tan finamente, que
126

si no tuvieran los valores que tienen, la vida no se hubiera desarrollado, y que

las estrellas no existirian, no tendrian las propiedades que tienen actualmente.

Un ejemplo de este Principio es: la postulacion de un nivel de energia nuclear de

resonancia del nucleo de Carbono, que propuso Fred Hoyle, para explicar la

nucleosintesis, este nivel es necesario para la produccion del carbono en las

estrellas, y fue hallado en experimentos de Fisica Nuclear [Seeger,1963]

Para temperaturas muy por abajo de 10 15 GeV, el numero barionico

se conserva, con mucha precision, asi que η es esencialmente una constante

puesto que ambas densidades n b y n γ disminuyen como R −3 , cuando el

Universo se expande. Puesto que m N / T γ actualmente es de ~10 13 K

aun con tan pequeño η, la densidad de energia de la matera, ρ N domina a la

densidad de energia de la radiacion ρ γ . Sin embargo, la radiacion domino

cuando la T γdom ≳ ηm N ~0.1 eV ~1000 K.

(4) la CMB es notablemente isotropica. Las observaciones

sugieren que la fluctuacion ∆T satisface: ∆T o ≲ 10 −4 .


To

(una anisotropia dipolar de 10 −3 se observa pero se cree es debida al

movimiento de la Tierra a traves del fondo de la radiacion, y tambien han

observado desviaciones cuadrupolares de la isotropia)


127

En una era del Universo cuando dominaba la radiacion, la evolucion del

Universo era regida por la ecuacion de Friedman.

Se puede demostrar, usando las ecs. de Einstein, que el factor de escala

de Robertson, R(t), y la temperatura T(t), que aparece en la metrica del

espacio-tiempo,

d s 2 = ∑ g αβ dx α dx β

2
dr
ds 2 = d t 2 − R 2 (t) 2
+ r2d Ω2 (1)
1−kr

donde k es el parametro, de Gauss, de la curvatura, y vale: {1, 0. -1}

Se refiere a R, como el ”radio o tamaño” del Universo

sustituyendo en las ecs. de Einstein, G αβ = a T αβ

se llega a la ec. de Friedman:

R’ 2 = 8π Gρ − k , (2)
R2 3 R2

donde ρ es la densidad de masa-energia, y R’ = dR


dt

y se ha ignorado el termino con la constante cosmologica, Λ.

La conservacion de la energia implica la ec.que relaciona la densidad, ρ

con la presion p: d (ρR 3 ) = −3 pR 2 (3)


dR

la ec.(2) es adecuada para describir al Universo primigenio


128

sustituyendo las aproximaciones: n = N/V ~g T 3 , ρ ~ g T 4

obtenidas luego de hacer integrales de fisica estadistica:

y con g , el factor del numero de grados de libertad,

2 1/3
dR/dt ~G N4 1 − k (4)
R g R4 R2

o equivalentemente, por:

2 g 2/3
dT/dt ~ g G T4 − k T2 (5)
T N

cuando el Universo se enfria debajo de la T γdom , la evolucion esta

governada por:

2
dR/dt ~ (G m N N η) 1 − k
R R3 R2

ignorando el termino que tiene la curvatura, k, integramos la ec.

para obtener el ”reloj de temperaturas”

MP 2
t~ 1 ~ (2.4 x 10 −6 seg) 1 1GeV (6)
g T2 g T

que nos da la temperatura a cada instante en la evolucion.

Sin embargo, en los trabajos de astrofisica se dice que ciertos eventos en la

vida del Universo, como habiendo ocurrido en ciertos ”redshifts” , z.


129

El parametro del corrimiento al rojo, z, esta relacionado a R(t), en la

cosmologia de Friedman-Robertson-Walker, por

R(t o )
1+z=
R(t)

R(t o ) denota la actual escala del tamaño. El parametro z, es medible,

en contraste, R(t), es un concepto teorico.

Sigamos a la evolucion del Universo en una temperatura T de, digamos, unos

pocos de MeV’s, puesto que la Cosmologia ”tradicional” establecida por

Gamow[1948] cubre los eventos a partir de esta T.

En este instante, el Universo contiene protones, p, neutrones,n, electrones, e,

positrones, e + , fotones, γ, y varias especies de neutrinos, ν. Los bariones

por supuesto, no son relativistas [E < mc 2 ], y las demas particulas si lo son.

ηm n
Puesto que: ~ 10 −8 , los bariones contribuyen con una fraccion
T

depreciable a la densidad ρ. Estas particulas se mantienen en equilibrio

termico una con otra, por varias interacciones, electromagneticas y debiles

y mientras, el Universo esta expandiendose.

Y la condicion para este equilibrio, basico, es que las reacciones relevantes

deben ser mas rapidas que la tasa de expansion.

Inspeccionando las ecs.anteriores, vemos que esta tasa de expansion es:


130

2
1 ~ T (7)
t MP

disminuye con la temperatura. Pero como veremos, la tasa de las interacciones

debiles disminuye aun mas rapido, tal que en algun tiempo los neutrinos

se salen del equilibrio termico.

La tasa de reaccion por neutrino esta dada por: n<vσ > .

Aqui, n ~T 3 , es la densidad numerica de electrones y de neutrinos.

La seccion transversal, promediada termicamente, < v σ >, puede ser calculada

aproximadamente empleando el analisis dimensional.

La amplitud es proporcional a la constante de acoplamiento,de Fermi:

G F ~ α/M 2W ~10 −5 m −2
N

La seccion transversal, σ, tiene dimensiones de 1/M 2 y asi:

< v σ > ~ G 2F T 2

puesto que la T es la unica variable relevante de dimension M, disponible.

Asi, la tasa de reacciones que incluyen a neutrinos es

n < v σ > ~ G 2F T 5 ( 8)

asi, a altas T’s, los procesos con interacciones debiles son suficientemente rapidos.

Pero, cuando la T disminuye hacia una T de desacoplamiento, T dec , los

neutrinos se ”desacoplan”, pierden contacto termico con los electrones.


131

comparando las ecs. (7) y (8), se ve que:

1/3
T dec ~ 1 ~〈 m N 10 10 〉 1/3 m N ~1 MeV (9)
M P G 2F MP

El valor preciso es de ~3.5 para el ν e , y de ~6 MeV para el ν µ y el ν τ

Esto sucedio, aproximadamente, un segundo luego del inicio del Universo.

Despues de este tiempo, la T ν del gas de neutrinos, disminuye como

1/ R cuando el Universo se expande.

Las mucho mas fuertes interacciones nucleares fuertes y la electromagnetica

continuan manteniendo a las particulas en equilibrio.

Otra vez, por analisis dimensional, podemos calcular las secciones tipicas

electromagneticas a ser: < v σ> ~α 2 /T 2 . asi la tasa de la reaccion: α 2 T

es mucho mayor que la tasa de expansion, ec. (7), para T << α 2 M P

La tasa de reacciones, por nucleon, es: ~T 3 (α 2 / M 2N )

la cual es mayor que la tasa de expansion, en tanto que T > m 2N /(α 2 M P )

sea una del orden de una temperatura baja.

Asi los nucleones son mantenidos en equilibrio estadistico cinetico.

la energia cinetica promedio, por nucleon, es (3/2)T.

y debemos ser cuidadosos de distinguir entre el equilibrio cinetico y el


132

equilibrio quimico. Las reacciones como: γ + γ  p + p

habiendo sido suprimidas anteriormente debido al factor de Boltzman

pues solo fotones muy energeticos de la ”cola final” de la distribucion

-son poquisimos fotones- pueden producir un anti-nucleon.

[el equilibrio cinetico se refiere a que a cada reaccion existe su inversa,

y el quimico, se refiere a la igualdad de los potenciales quimicos]

Asi, esencialmente no hay anti-nucleones ahi rondando.

Para T > m e ~ 0.5 MeV ~5 x 10 9 K, el numero de electrones, de

positrones y de fotones son comparables, los cocientes exactos son dados

facilmente al insertar los ”factores-g”, apropiados.

Puesto que el Universo es electricamente neutro, n(e − ) −n(e + ) = n protones

y asi hay un poco de exceso (10 −10 ) de electrones sobre positrones.

Cuando la T cae debajo de m e c 2 , el proceso γ + γ  e + + e − es suprimido

severamente debido al factor de Boltzman: exp(-m/ T), puesto que solo

fotones muy energeticos en la ”cola final” de la distribucion de Bose

pueden participar. Asi los positrones y electrones se aniquilan rapidamente

via la reaccion e + + e −  γ + γ

y no son repuestos , dejando un pequeño numero de electrones


133

n(e) ~n(p) ~(10 −10 ) n(γ)

Y la aniquilacion de los pares e − e + calienta a los fotones relativo a los

neutrinos, o sea: T γ > T ν . La cantidad del calentamiento puede ser calculada

exactamente al requerir la conservacion de la entropia.

Asi, luego de la aniquilacion, encontramos, refiriendonos a la ec.

g = ∑ g bosones + (7/8) ∑ g fermiones

T >γ Tγ g< 1/3


11
= = = ~1.4
T <γ
3
Tν >
g> 4

(el simbolo <, se refiere a: antes de la aniquilacion y el >, a despues)

o sea: T γ ~ 1.4 T ν , los fotones tienen mayor temperatura que los neutrinos.

este cociente ha permanecido constante desde entonces. Lo malo es que no

hay manera de medir la temperatura del fondo de neutrinos del Universo.

EL PROBLEMA DEL HORIZONTE

Nosotros no vemos mas lejos que la distancia que ha viajado la luz, desde

el nacimiento del Universo, esto es: cerca de 10 28 cm.

Esto puede ser tomado como el tamaño efectivo u ”horizonte” del Universo.

Asi, hay aproximadamente 10 87 fotones dentro del horizonte.

Un concepto importante es la distancia que ha viajado un foton desde el inicio

se la llama: el tamaño del horizonte, y determina en cualquier tiempo dado, el


134

tamaño de las regiones causalmente relacionadas. Esta dada por:

d H ~c t ~g −1/2 M P / T 2

en contraste, el tamaño de la escala del Universo, R(t) crece como t

[esto se obtiene al integrar la ec.(4)]. Asi, en tiempos primigenios, el tamaño

de los dominios causalmente conectados es mucho mas pequeño que el

tamaño efectivo del Universo. Es una incognita saber como la homogeneidad

y la isotropia del Universo, llego a ser. Esto se conoce como el problema del

horizonte, el Universo se expandio demasiado rapido luego del inicio, t = 0.

Incidentalmente, esto también explica porque los efectos de la relatividad

general no son importantes en el Universo primigenio: cuando R es pequeño,

el tėrmino de la curvatura, k / R 2 , es despreciable. Los dominios donde hay

causalidad son pequeños comparados con el radio de curvatura.

Diferentes regiones del cielo son observadas y tienen la misma temperatura

-con un alto grado de exactitud- Sin embargo estas regiones diferentes no

estaban causalmente relacionadas cuando los fotones se desconectaron de la

materia. Similarmente, la abundancia del 4 He no parece variar sobre las

regiones en las que se observa. Pero la NucleoSintesis se realizaba en las

regiones causalmente desconectadas. Asi este problema del horizonte


135

representaba un enigma notable en la Cosmologia, pero fue resuelto cuando

se propuso el Modelo Inflacionario [Guth,1981; Linde,1982]

El problema de la longevidad: el Universo es muy antiguo. El Universo esta

descrito, supuestamente, por una teoria en la cual la unica escala de tiempo

caracteristica es la escala del tiempo de Planck, T P . = 10 −43 segundos

el Universo ha vivido 10 60 unidades del T P . Equivalente, es el problema

de la ”heladez”: el Universo es muy frio. ¿Porque la Temperatura actual no es

del orden de la temperatura de Planck, 10 32 K ?

Tambien se tiene el problema de la ”vastedad”,

y el problema de la ”planidad”: el Universo es muy plano. Este es el enunciado

de que el termino de curvatura es despreciable comparado con los otros dos

terminos, en el tiempo de Planck. En lenguaje Newtoniano, podemos preguntar:

¿quien ajusto, en la epoca de Planck, las energias cinetica y potencial a ser

aproximadamente iguales y con signo opuesto?, piense en una analogia: tiramos

una pelota hacia arriba, si la energia cinetica es pequeña, la pelota pronto

retornara a la superficie, si es grande, rapidamente escapara. Estas energias

deben ser ajustadas finamente para cancelarse mutuamente si la pelota viajara

varios años-luz, antes de regresar.


136

El problema de la Constante Cosmologica:

La Fisica de Particulas incluye varias rupturas de simetrias: desde el rompimiento

de la Gran Unificacion, hasta el de la Simetria Chiral, cada una de estas rupturas

genera una constante cosmologica muy grande, lo que se contradice con las
observaciones.

El problema es muy fascinante porque yace en la interfase entre entre la gravedad

y las otras tres fuerzas de la naturaleza. Y su solucion arrojara ”luz” sobre el

problema de ¿como la fuerza gravitacional esta conectada con las otras fuerzas?

este es el problema de cuantificar a la gravitacion: la Gravedad Cuantica.

LA GENESIS DE LA MATERIA

Hay dos hechos notables acerca del Universo: no es vacio, pero esta casi vacio.

la imagen popular del Universo es que es una vasta vacuidad punteada aca y alla

por unas pocas galaxias. Con el descubrimiento de la CMB, esta vacuidad esta

cuantificada por el cociente η ≡ nnBγ ~ 10 −10

o sea, comparado con el numero de fotones, o de radiacion, el numero de

nucleones es pequeñisimo. El Universo esta casi vacio, esta solamente un poco

”contaminado” con la materia.

Pero para los partidarios de la Cosmologia simetrica, (que hay una cantidad
137

igual de materia como de la anti-materia), el valor observado de η les parece,

mas bien, grande. El problema con esta rama de la cosmologia, es que no se

ha encontrado un mecanismo plausible que explique la separacion de ambos

tipos de materia. El descubrimiento de la violacion de la simetria CP, en 1964

(simetria de carga-paridad) demostro que las leyes de la fisica no son

exactamente simetricas entre la materia y la anti-materia, y abrio la puerta a un

posible entendimiento de esta a-simetria en el Universo.

Sin embargo, si el numero barionico, B, se conserva absolutamente, como se

creia generalmente, entonces la contaminacion de bariones observada tenia que

ser puesta al ”principio” . El cociente η representa una condicion inicial, y su

pequeñez no puede ser explicada a partir de primeros principios.

Con el arribo de la teoria de la Gran Unificacion, la no-conservacion de los

bariones ya no era considerada como una especulacion sin fundamento.

grupos de investigadores reconocieron que la GUT permite calcular a la η, en

funcion de otros parametros fundamentales, tales como la medicion de la

violacion de la simetria CP. Asi se tiene una Cosmologia ”esteticamente

atractiva” en la cual el Universo empezo vacio y gradualmente desarrollo una

preponderancia de la materia sobre la anti-materia.


138

Y esta teoria GUT tambien predice que la amplitud de la no-conservacion

llega a ser sustancial a temperaturas mayores que la temperatura asociada con

la de la escala de la unificacion. Esto es esencial porque las observaciones han

establecido que el tiempo de vida del proton es mayor que 10 20 veces que la

edad actual del Universo. Para que el Universo desarrolle tal asimetria, se deben

satisfacer tres condiciones:

(1) las leyes de la fisica deben ser asimetricas

(2) los procesos fisicos relevantes se desviaron del equilibrio, tal que hay una

flecha del tiempo.

(3) los numeros barionicos no se conservan

El Universo en expansion nos da un ejemplo de los procesos fisicos que salen del

equilibrio, como hemos visto en otra seccion,

Los investigadores concluyeron que los procesos que incluyen a una particula

masiva (Mc 2 > k T ) son necesarios para generar una asimetria barionica.

Un posible escenario incluye el decaimiento de una particula muy masiva: X,

la cual seria un boson de norma o un boson de Higgs en una teoria GUT.

Es excitante el hecho que un dia estaremos dispuestos a calcular cuanta materia

X, debe contener el Universo. Cuando Gamow propuso la nucleosintesis primordial


139

escribio que ”estaba permitiendo a su imaginacion volar mas alla de todo limite”

y remarco que las abundancias de los elementos quimicos representan al

”el documento arqueologico mas antiguo” conocido. Y solo 3 decadas despues

los astrofisicos extendieron la Cosmologia de Gamow hasta temperaturas de

19 ordenes de magnitud mas grandes que las que tuvo Gamow en su mente:

Entonces, la materia es el fosil fundamental


——————————————————————————-

La influencia entre la Cosmologia y la Fisica de Particulas

LAS NUEVAS PARTICULAS

En los años 70’s resurgio el interes en la posibilidad de que los neutrinos tengan

masa. Se dieron argumentos simples para la contribucion de ellos en la densidad

total del Universo, [Dolgov, Zeldovich, 1981]

esto conduce a una restriccion a sus masas. Las explosiones de supernovas

liberan una gran fraccion de su energia en neutrinos, los cuales, si decaen en

fotones cerca de la supernova, incrementan su luminosidad.

Solo vidas-medias cortas son permitidas para neutrinos con masas hasta de

cerca de 10 MeV.

SUPER-INOS

Las teorias supersimetricas de las particulas predicen parejas fermionicas para

todos los bosones, y viceversa. El foton tiene su fotino, el graviton, su gravitino


140

AXIONES
Esta particula es una hipotetica que aparece en una clase de teorias inventadas

para explicar porque ′ la interaccion fuerte conserva las simetrias P y C

En estas teorias la conservacion de P y CP es una consecuencia de la relajacion

de un nuevo campo alrededor del minimo de un potencial; el Axion es una osci-

lacion de este campo alrededor del minimo.

Puesto que las estrellas son enormes reactores nucleares, tambien emiten axiones

Si estos no se llevan demasiada energia de las gigantes rojas de modo que los

modelos de la evolucion estelar serian desafiados, entonces los axiones deben

ser mas ligeros que: ~0.01 eV. Aunque el axion debe ser ligero, es producido

en grandes cantidades, (mas de lo que sugeririan los argumentos de equilibrio

termico) y asi tener importantes implicaciones cosmologicas. Y todas estas

nuevas particulas son candidatas para ser la Materia obscura.

MONOPOLOS MAGNETICOS
Es muy conocido que Dirac especulo con la existencia de tales monopolos y no

tenia una razon de peso para su existencia, lo hizo guiado por principios de

simetria y estetica, pero en las teorias G U T, la existencia de tales particulas es

predicha, cuando el Universo estaba en su fase muy primigenia (t ~10 −35 s), y la

temperatura era del orden de: 10 15 GeV; la masa del monopolo es algo mayor

que 10 16 GeV. Y los modelos teoricos predicen una enorme densidad de tales
141

monopolos, que dominarian en el Universo, ahora, tantos como 12 ordenes de

magnitud. El modelo inflacionario de Guth resolvio este problema, y esto fue el

primer motivo para ser aceptado.

BARYOGENESIS
La teoria de la Gran Unificacion (GUT) ha provisto con una solucion a uno de los

problemas cosmologicos mas dificiles, porque el Universo contiene materia pero

no antimateria. Los ingredientes esenciales fueron notados por Sajarov cuando la

unificacion era aun una especulacion teorica lejana, pero ahora son posibles unos

calculos mas o menos cuantitativos del cociente η.

El cociente depende de un parametro que controla a la magnitud de la violacion

de la simetria C P en la G U T, pero este parametro no esta determinado teorica

mente asi que puede decirse que ninguno de esos calculos predicen el numero de

bariones del Universo.

TRANSICIONES DE FASE
En la cosmologia estandar, la temperatura disminuye en proporcion inversa al fac-

tor de escala, R, manteniendo un cociente bariones/fotones constante. Pero hay

cierto momentos en la evolucion del Universo cuando el estado de la materia pue-

cambiar abruptamente, y tales transiciones pueden tener efectos significativos ta-

les como desviarse de una evolucion adiabatica o producir no-uniformidades


142

en la densidad. Y pueden asociarse con procesos fisicos conocidos como:

La transicion de quarks libres a quarks confinados, La ruptura de la simetria de

las teorias unificadas, o con efectos cuantico-gravitacionales.

DEFECTOS TOPOLOGICOS
En la teoria de la gran unificacion, o la teoria de Salam-Weinberg-Glashow,

cuando es rota una simetria, el nuevo vacio tiene una simetria propia, hay un

grupo de transformaciones del campo cuantico, simetrias que dejan invariante

al estado cuantico del vacio. Esto implica que puede haber estados estables

del vacio en los cuales estos campos varian de region en region.

Un defecto topologico ocurre cuando tal campo no puede ser conectado sobre

el espacio entero, sin la introduccion de singularidades. Tales defectos son:

muros, monopolos magneticos, cuerdas cosmicas. Y los muros son desastrosos

en Cosmologia, pero las cuerdas cosmicas son mas interesantes.

RUPTURA DE LA SIMETRIA (SBS siglas en Ingles)


Aun si la SBS no crea defectos topologicos, la transicion de fase asociada puede

ser del 1er. orden, conduciendo a una excesiva creacion de la entropia (medida

por el cociente bariones/ fotones) a traves de la liberacion del calor latente.

La cosmologia de la transicion de Weinberg-Salam, puede usarse para restringir

algunos parametros de la teoria, como la masa del boson-Higgs.

Una transicion de fase del 1er. orden del SBS de una simetria G U T. o tal vez
143

de una Supersimetria, da lugar al llamado Universo Inflacionario.

EL CONFINAMIENTO DE LOS QUARKS


A muy altas temperaturas y densidades, los quarks se comportan como

particulas libres y consituyen un gas, pero cuando el Universo evoluciona,

estas se confinan en parejas, eventualmente, o en ternas, para formar mesones

o hadrones (protones,neutrones). No es conocida a que temperatura sucede

esto, porque la transicion es resultado de interacciones fuertes no-perturbativas.

Universo INFLACIONARIO
Como fue concebido originalmente, este modelo incluia un SBS de 1er.

orden, y causaba un periodo de una expansion exponencial.

Su mayor logro fue que prometia explicar: como el Universo podria ser

homogeneo sobre una region no conectada causalmente, y asi, tan cerca

de una densidad critica en tiempos posteriores.

Estos modelos ahora son mas sofisticados y variados y el termino

inflacion se usa para decribir a una variedad de teorias que producen el

mismo final cosmologico; tambien son incluidas: la Gran Unificacion, las

transiciones de fase o la gravedad cuantica. [Guth, Steinhardt, 1984]

Resuelve problemas cosmologicos: la expansion exponencial incrementa

mucho la escala causal del Universo y asi que lo empujaria hasta ser plano.
144

Pero tenia sus fallas: se formarian pequeñas burbujas que constituirian un

inhomogeneo estado final. Pero Linde, Steinhardt y Albrecht, lo refinaron,

en donde con una cuidadosa eleccion teorica permitiria a una sola burbuja

inflarse lo suficiente como para acompasar a todo el Universo actual.

RECALENTAMIENTO
En todos los modelos inflacionarios, la temperatura T, disminuye

exponencialmente al traves de un periodo de superenfriamiento.

Cuando la retrasada transicion ocurre, el Universo debe recalentarse

hasta una T lo suficientemente grande para que la nucleosintesis

tenga lugar. Este requerimiento pone un numero de constricciones

a la teoria subyaciente.

FLUCTUACIONES
Pero luego,se vio claro que el nuevo modelo inflacionario sufria de

un problema serio. Con la unica burbuja, hay fluctuaciones en el campo

que llevan a fluctuaciones en la densidad. Aunque el espectro de esas

inhomogeneidades tienen una buena forma como para formar a las galaxias,

su magnitud es demasiado grande. Remediar este problema necesita

de una re-construccion mas cuidadosa de la teoria original.

Las teorias de la SuperSimetria y de la Gravedad Cuantica proveen los


145

medios para ser los modelos competitivos.

La Gravedad Cuantica
¿que sucede proximo al inicio en la evolucion del Universo?, cuando el

tiempo t es igual al tiempo de Planck, t = t P , es necesario conocer la

gravedad cuantica, o sea, cuantificar a la teoria clasica de la gravedad

de Einstein-Friedman, de modo analogo como: cuantificar a la teoria

clasica del electromagnetismo de Maxwell-Faraday llevo a establecer

la Electrodinamica Cuantica, de Feynman, Schwinger y Tomonaga.

Ignorar a la gravedad cuantica es ignorar como empezo el Universo y

como emergio del estado cercano a la singularidad hasta la era de la

evolucion actual, entendida empleando la gravedad clasica.

Intentos para estudiar la llamada era de Planck han sido muy limitados

aunque han desarrollado ideas interesantes,[Wheeler, B.de Witt, 1983]

Creacion de Particulas
El intento de usar la teoria cuantica convencional en el espacio-tiempo

curvado constituye el acercamiento semiclasico a la gravedad cuantica,

en el cual la espectacion es retener a la descripcion clasica del espacio-

tiempo por un ”manyfold” suave, pero introducir correcciones a las ecs.

de Einstein, usualmente en la forma de terminos adicionales en el tensor

de energia-esfuerzos, que surgen de una descripcion cuantica de las inter-


146

acciones. Para los cosmologos una idea es que los campos gravitacionales

pueden crear particulas (similar al modo como campos magneticos pueden

crear parejas de electrones), pero calculos hechos en 1988, demuestran que

esos efectos semiclasicos no pueden remover completamente las anisotropias

anulando la idea de que los Universos de Robertson-Walker pudieron emerger

de cualesquiera condiciones iniciales.

Hoyos Negros Primordiales


Otro fenomeno establecido en la gravedad cuantica semiclasica,

es la evaporacion de Hoyos Negros (H N) debido la emision de un espectro

termico de particulas, efecto descubierto por Stephen Hawking.

La T de un H N es inversamente proporcional a su masa; para un H N

de origen astrofisico, la evaporacion es despreciable. Sin embargo, grandes

fluctuaciones de la densidad en el Universo primigenio, pueden colapsar

para formar H N primordiales, de muy poca masa, y tal objeto con una

masa inicial menor que 10 15 gr se evaporara durante el tiempo de vida del

Universo. La emision de particulas energeticas conduce a restricciones sobre

la densidad permitible y el espectro de masas de los H N primordiales,

pero tambien hay modelos en los cuales la evaporacion de los H N extrema-


147

damente pequeños es una fuente de particulas cuyo decaimiento crea a un

numero de bariones universal.

Cosmologia SemiClasica

Un proposito mas ambicioso ha sido aplicar las ideas de la gravedad semiclasi-

ca a la Cosmologia com un todo. Hacer correciones cuanticas a las ecs. de

Einstein hacen posible una fase de De-Sitter cercana al t P , llegando a un modelo

de ”inflacion primordial”

En una vena distinta, Vilenkin ha aplicado el analisis semiclasico de las

transiciones de fase y la formacion de burbujas en un intento para demostrar

que el Universo pudo empezar como un evento de tunelamiento cuantico

a partir del llamado ”vacio cuantico”: un estado cuantico sin particulas.

Dimensiones Extras
Para unificar a la gravitacion y el electromagnetismo, Kaluza y Klein

propusieron una 5a dimension del espacio que no es visible a nuestros

ojos pues es extremadamente pequeña, La manifestacion observable a

baja energia de esta dimension extra, es el electromagnetismo, al cual se

interpreta como una gravitacion en la 5a.dimension Tales teorias generalizadas

a mas de una dimension extra, recientemente han tenido un re-avivamiento,

porque las teorias de la SuperGravedad y de las Supercuerdas, tienen una


148

”predileccion” por mas de cuatro dimensiones, hasta por 26 dimensiones!.

otra teoria relacionada con la Gravedad Cuantica es la:

Teoria de las Supercuerdas


En esta teoria, a las ”particulas” se las considera como minusculas cuerdas de

tamaño de la longitud de Planck, L P , en lugar de considerarlas como

puntuales, de tamaño cero, y esta siendo objeto de detalladas investigaciones.

Su atractivo es que carecen de infinitos, o sea, ciertas integrales basicas,

tienen valores finitos; todas las interacciones deben ser calculables sin ejecutar

el proceso matematico de la Renormalizacion


————————————————————

GLOSARIO

Termalizacion. Una transicion (atomica o molecular) esta termalizada

cuando el factor de Boltzman para los dos niveles atomicos, toma el valor

que tendria en equilibrio termodinamico.

Cuando se tiene que el tiempo libre promedio es mayor que el tiempo de la

expansion -tasa- las particulas no necesitan estar distribuidas con una

distribucion de Boltzmann y que los efectos disipativos pueden ser significativos.

p.ej. cuando la T = 10 19 – 10 15 GeV, ningunas interacciones de particulas

conocidas pueden haber estado en equilibrio.

Para suficientemente altas ρ y T, los intercambios entre diferentes especies

nucleares son tan rapidos, que el equilibrio estadistico se establece entre núcleos

las abundancias relativas de los diferentes elementos pueden calcularse en funcion


149

de ρ y T usando las ecs. de la fisica estadistica

Veremos que tal equilibrio termico (T E) sera en un tiempo de menos de 100 seg.

Cuando ρ = 10 7 , y la T = 10 9 K

El equilibrio estadistico consiste en que las reacciones proceden en uno u otro sentido.

estas reacciones nucleares deben ser suficientemente rapidas para que las ecuaciones

estadisticas sean aplicables.

el T E require de un balance detallado entre las reacciones y sus inversas

que involucran la absorción de un foton-gamma. Este sera el caso si hay equilibrio

termodinamico entre la materia y la radiacion: las temperaturas deben ser iguales.

Hoyle, MNRAS, 1946:

para una densidad y temperatura suficientemente altas, los intercambios entre

las diferentes especies nucleares son tan rapidos, que el equilibrio estadistico

se establece entre núcleos,

[mas rapidos que la tasa de la expansion del Universo, dada por el parametro

de Hubble, H]

Las abundancias relativas de los diferentes elementos pueden calcularse

en funcion de ρ y de T, usando las ecs. de la fisica estadistica.

Veremos que el T E sera en un tiempo de menos de 100 seg.

cuando ρ = 10 7 g/cm 3 , y la temperatura, T = 10 9 K

El equilibrio estadistico consiste en que las reacciones proceden en uno

u otro sentido, esto implica que las reacciones nucleares deben ser
150

suficientemente rapidas,como para que las ecs. estadisticas sean aplicables.

Hay relaciones entre ρ, T, σ , v, n; Γ= n < σ v >

el equilibrio estadistico require de un balance detallado entre las reacciones

y sus inversas, que involucren la absorción de un foton-gamma

Este sera el caso si hay equilibrio termodinamico entre la materia y la radiacion:

esto es: temperaturas iguales.


En Termodinamica se conoce cuando un sistema llega al estado de equilibrio

termico, en este, las propiedades del sistema no varian de lugar en lugar,

y no varian con el tiempo, pero particulas individuales estan en movimiento

y sus propiedades estan cambiando. Por ejempo, los electrones son removidos

y luego reunidos a los atomos, pero existe un estado estadisticamente

estacionario en el cual cualquier proceso y su inverso ocurren con igual

frecuencia. Asi en el ejemplo, el numero de atomos ionizados, por unidad de

tiempo, es igual al numero de recombinaciones.

A causa de que las propiedades del sistema no varian en el espacio, cuando ha

alcanzado el T E, cualesquiera partes del sistema tienen la misma T.

En T E, la intensidad de la radiacion esta dada por la funcion de Planck U ν (T).

Y esta intensidad no depende de que materia este presente aunque el tiempo

que le lleve alcanzar su intensidad de equilibrio depende de la materia.

En varios experimentos sobre la Tierra, las condiciones estan lejos del

verdadero T E, a causa de que la cantidad de radiacion presente esta muy por

debajo de su valor de equilibrio termico.


151

En contraste, adentro de las estrellas dicha intensidad de radiacion es muy cercana

al valor predicho por la ley de Planck y la densidad de la energia de la radiacion

y la presion de radiacion pueden ser importantes.

Degeneracion de los Neutrinos


Se refiere a una asimetria entre los numeros de neutrinos y anti-neutrinos

y afecta al proceso de la NS en dos maneras:

a) altera el valor de equilibrio del cociente n /p para una temperatura dada

este nuevo valor de equilibrio esta dado por: n / p = exp{-Q-φ}/T

donde Q es la diferencia de masa proton-neutron y φ es el parametro de

degeneracion. Es basicamente el potencial quimico.

b) el otro efecto es acelerar la tasa de la expansion. Recuerde que el

cuadrado de tal tasa depende de la densidad de energia.

y que la tasa de reacciones debe ser mayor que la tasa de expansion.

La condicion de equilibrio demanda una rapida tasa de reacciones.


Los neutrinos degenerados incrementan a la densidad y asi a la tasa de expansion

Esto resulta en que la expansion le gana a las tasas de las reacciones nucleares

en un tiempo anterior. Y el ”freeze-out” de nuevo altera al cociente n /p.

Freeze-out. Termino coloquial empleado para expresar que los neutrinos

ya no influyen en la NS, se han desacoplado de las demas particulas, excluido.

Equilibrio Termico.Es el que se obtiene por un sistema en contacto con un baño

de calor a una temperatura constante.En tal estado, la distribucion de velocidades

esta descrita por la distribucion de Maxwell-Boltzman y otras distribuciones estan

dadas por las ecs. del equilibrio mecanico-estadistico


152

Esfera co-movil. Una superficie esferica hipotetica y arbitraria (alrededor

de cualquier punto) que se expande con el resto del Universo. Relativas a

dicha esfera, las perticulas sobre la misma estan en reposo.

Desacoplamiento. La transicion rapida de un estado ionizado con un corri-

miento z = 1000, cuando la radiacion de cuerpo negro es dispersada por

los electrones libres, a un estado no ionizado, cuando la materia esta en la

forma (predominantemente) de atomos de hidrogeno los cuales no dispersan

a la radiacion en forma apreciable. La radiacion, subsecuentemente, no inter-

-actua con la materia a menos que esta sea re-ionizada en una epoca poste-

rior debido a la radiacion venida desde quasares o galaxias en formacion.

Este desacoplamiento ocurrio cuando la T ~3000 K, y a 100,000 años

despues del big bang.

Presion de degeneracion. Presion en un gas de electrones o de neutrones.

el cual esta en un estado cuantico ”degenerado”.

Materia degenerada. Es un estado de la materia encontrado en las enanas

blancas y en otros objetos extremadamente densos, en los cuales ocurren

desviaciones de las leyes clasicas. Cuando la densidad aumenta a una tempe-

ratura dada, la presion se eleva mas y mas rapido, hasta que llega a ser inde-

pendiente de la temperatura y dependiente solo de la densidad. En este ins-

tante, se dice que el gas esta degenerado.

Degeneracion cuantica. Es la ocupacion de todos los estados cuanticos de


153

energia mas pequeña, por los Fermiones, a una muy baja temperatura.Esto

origina a la presion de degeneracion, ocasionada por ese ”apretujamiento”.

Nucleosintesis explosiva. se cree que este proceso ocurre en las supernovas

La combustion explosiva del carbono ocurre a una temperatura de ~2x10 9 K

y produce los nucleos desde el neon hasta el silicio.

La combustion explosiva del oxigeno ocurre a una T ~4x10 9 K, y produce

nucleos entre el silicio y el calcio en pesos atomicos. A temperaturas mayores

nucleos aun mas pesados hasta el hierro y mas pesados aun, son producidos.

Hadrones. Son particulas subatomicas subdivididas en bariones y mesones.

son combinaciones de tres quarks amarrados por la interaccion fuerte.

Bariones. particulas como: protones,neutrones, hyperones, hechas de tres

quarks. Una prediccion de la teoria GUT es que el proton puede decaer, en un

meson-pion y un positron, con una vida-media de 10 30 años, tal decaimiento

violaria la ley de conservacion del numero barionico.

Leptones. Una familia de fermiones, que no sufre la interaccion nuclear-fuerte

son los: electron, meson-mu, neutrino del electron el lepton pesado y sus anti-

-particulas.

Mitad de Vida.(Half-life) El intervalo de tiempo requerido para que la mitad

de los atomos de una muestra cualquiera de una substancia radiactiva, se desintegre.


Horizonte. La region observable del Universo, limitado en extension por la distancia

que ha viajado la luz durante el tiempo transcurrido desde el instante inicial de la

vida del Universo, llamado la ”singularidad”.


154

Principio Antropico. El enunciado que afirma que la presencia de vida sobre la Tierra

pone limites sobre las muchas maneras en las cuales el Universo podria haberse

desarrollado y podria haber causado las condiciones de temperatura (una entre el

punto de fusion y el de congelacion) que prevalecen hoy. Este argumento es el inverso

de la tesis usual que afirma que la vida surgio porque las condicones fisicas fueron

favorables.

Constante cosmologica. Un parametro con unidad de inverso de longitud al cuadrado.

Einstein lo agrego a sus ecuaciones, con objeto de tener un Universo estatico, sin

contraccion o expansion. Implica una fuerza de repulsion que equilibra a la fuerza

gravitatoria de atraccion.

Invariancia CP. Ley de conservacion, ahora no es valida en todas las reacciones

Concierne a la equivalencia de materia y antimateria. C es una operacion algebraica

que invierte el signo de la carga electrica; y P, invierte el signo de la coordenada

radial, r. Esto puede explicar porque se ha encontrado tan poca antimateria.

Ondas Gravitacionales. Es la radiacion, hasta hoy hipotetica, emitida por un cuerpo

masivo que oscila. Evidencia indirecta de la misma, es dada, al estudiar los Pulsares

binarios, porque se explican sus orbitas excentricas como resultado de la perdida

de energia via la radiacion gravitacional.

PULSAR. Objetos decubiertos en 1967, que emiten ondas de radio en direcciones

preferentes y observadas como emisiones periodicas repentinas y violentas.

son estrellas de neutrones que giran rapido; las emisones son la radiacion de

Synchrotron liberada por electrones acelerados en los enormes campos magneticos


155

de los pulsares (10 12 gauss).

Radiacion de Synchrotron. Es la luz polarizada emitida por electrones cuando

son acelerados en un campo magnetico fuerte. Fue observado primero en los

aceleradores de particulas, donde era una disipacion inconveniente, su energia

varia desde uno hasta miles de eV. Viniendo desde las estrellas puede implicar

la presencia de campos magneticos grandes.

Constante de Hubble. Es el factor de proporcionalidad entre las velocidades de

recesion de las galaxias y sus distancias, Por la ley descubierta por Hubble, en 1929.

en general, el parametro de Hubble, H(t), depende del instante de tiempo cosmico.

Su valor actual se escribe como la constante de Hubble, H 0 , su valor preciso

aun tiene que ser medido y cae en el rango de 50 a 100 [km/seg⋅Mpc]

aunque varias determinaciones recientes apuntan a valer H 0 ≈ 70

Tiempo de Hubble. Es el inverso del parametro de Hubble. Si la expansion del

Universo no se estuviera frenando por la atraccion gravitacional entre galaxias,

este tiempo indicaria el tiempo transcurrido desde la ”gran explosion”.

Dispersion de Compton Inversa. una colision en la cual un foton adquiere energia

al ser dispersado por un electron energetico, y asi aumenta su energia.

Dispersion de Compton. Una colision en la cual un foton pierde energia

al ser dispersado por un electron, y asi disminuye su energia. E γ >> m e c 2 ,

en el sistema propio del electron.

Materia Obscura. Es la diferencia entre la masa ”observada” de los clusters de


156

galaxias, (como es calculada de medidas de luminosidad) y la masa ”dinamica”

calculada a partir de medidas de velocidades radiales dentro de los clusters.

algunas teorias atribuyen esta masa a plasma caliente intergalactico o a neutrinos

masivos, u otras particulas hipoteticas supersimetricas.

Materia Obscura Fria. Consiste de WIMPs que estuvo en equilibrio con todas las

formas de materia y de radiacion en las primeras fases de la BB. Porque se supone

que eran muy masivas, deberian estar muy frias en el tiempo actual.

Materia Obscura Caliente. Es una variante posible de las teorias sobre la materia

obscura para el origen de la estructura en el Universo. Supone que los neutrinos

tienen una masa finita de ~10 eV. Hay suficientes neutrinos-reliquia producidos

en la BB que, su densidad de masa total seria suficiente como para cerrar al Universo

Puesto que si tienen masas muy pequeñas , permanecerian calientes hasta tiempos

posteriores, en el Universo.

Energia Obscura. La expansion del Universo esta acelerandose, se deduce esto

del estudio de las supernovas distantes, las cuales suministran ”velas estandar”

para una escala de distancias cosmologicas. Es interpretado esto aceptando que

la constante cosmologica Λ, (que Einstein introdujo en su teoria gravitacional)

da cuenta del 65 % de la densidad de energia del Universo. Esta contribucion es

referida como ”energia obscura” para distinguirla de la ”materia obscura” la cual

da cuenta de casi todo el resto de la densidad de energia, pues los bariones solo

contribuyen con un poco %. Una proposicion alterna es que esta energia se debe

a un nuevo campo de materia, bautizado como ”quintaesencia”.


157

Flavors.( ”sabores”) Son numeros cuanticos que sirven para etiquetar a los

miembros de la familia de los quarks: son seis ”flavors”:{up,down,strange,charm,

top,bottom} en español:{arriba, abajo, extraño, encanto, cumbre, fondo}

y por brevedad, se usan sus iniciales en ingles: {u,d,s,c,t,b}

algo analogo a como los numeros cuanticos {n,l,m,s} sirven para nombrar a los

estados cuanticos de los atomos.{numero principal, momento angular, spin}

Color. Lo que es la carga electrica para la fuerza electrica lo es el color para la

fuerza nuclear (no tiene aca el significado que tiene en la Optica,es un nombre

de bautizo arbitrario) es un atributo de los quarks, hay tres variedades del color

”rojo” ”verde” ”azul”, Asi como hay dos tipos de cargas electricas:positivas y

negativas, hay tres numeros cuanticos de ”color”, asociados con el grupo de

simetria SU(3) color .

La masa viene siendo, la ”carga gravitacional”, pero su origen sigue siendo un

enigma, y se cree que se entendera hasta que sean unificadas las cuatro fuerzas

En las Teorias Unificadas, la masa se introduce por medio del mecanismo de

”ruptura de una simetria”: de una simetria mayor hacia una simetria menor.

Cromodinamica cuantica.La teoria que describe como interactuan los hadrones.

un hadron consta de dos o tres quarks y estos interactuan fuertemente por medio

del intercambio de gluones

Electrodinamica Cuantica.La teoria que generaliza a la teoria clasica de

Maxwell, Gauss y Faraday, al refinarla incluyendo efectos debidos a la Fisica


158

Cuantica, como la Polarizacion del vacio, la creacion de pares electron-positron.

Ruptura ”Espontanea” de la Simetria. Cuando en una Teoria Cuantica de

Campo de un sistema fisico, este ya no exhibe las mismas simetrias inherentes en

las ecuaciones que gobiernan al sistema. Cuando las soluciones de un conjunto

de ecuaciones no muestran toda la simetria de las ecuaciones mismas.

Por ejemplo: en un ferromagneto, las leyes que gobiernan la orientacion del

spin de un atomo dentro del magneto, son simetricas con respecto a la direccion;

i.e.: ninguna direccion es preferente. Pero cuando el magneto es enfriado por

debajo de una temperatura critica, ocurre una transicion de fase en la cual las

correlaciones entre muchos spines atomicos ayudan a establecer una red cre-

ciente de spines en una direccion preferencial. Este imbalance ”espontaneamente”

rompe la simetria que tenia la red cristalina, arriba de la T critica.

Un fenomeno semejante pudo ocurrir despues del ”big bang” cuando la simetria

(equivalencia) de las cuatro fuerzas fisicas fue rota conforme el Universo en

expansion se iba enfriando.

Boson superpesado. Las particulas hipoteticas (con una masa de ~10 15 GeV)

responsables de las interacciones entre los quarks y los leptones, en la etapa

muy primigenia del Universo. A veces se les llama bosones-X, y tambien serian

responsables del decaimiento del proton en las teorias GUT.

Interaccion Nuclear Fuerte. es la mas fuerte de las 4 fuerzas fisicas. Los pro-

tones y neutrones se amarran por medio de intercambio de mesones (bosones)

Los quarks interactuan estre si al intercambiar Gluones (Glue=pegamento) que


159

son particulas sin masa y sin carga electrica. De modo analogo a como las par-

ticulas con carga electrica interactuan intercambiando fotones (de masa cero).

Interaccion Nuclear Debil. Es una fuerza responsable de los decaimientos-beta

radiativos. (n  p + e − + ν). El agente-mediador de esta fuerza son los bosones

pesados: {W + , W − , Z 0 ) con masas ~90 GeV. Es menos intensa que la fuerte y

tambien es de muy corto alcance.

Teorias Unificadas, G. U.T.(Grand Unified Theories)

Son una clase de teorias del campo en las cuales las fuerzas fisicas nucleares y electrica,

estan unificadas en una sola fuerza, la cual se divide en las fuerzas originales, en

ciertas energias. Son invariantes bajo una transformacion de simetria, cuyo efecto

es local: varia de punto en punto en el espacio-tiempo.

La no-conservacion de los bariones requiere de la existencia de particulas muy

masivas (bosones de norma o de Higgs) con masas ~10 15 GeV.

En el Universo muy primigenio ( T > 10 28 K, t < 10 −35 seg) cuando la energia

de un foton es comparable con la masa de reposo de esas particulas muy ma-

-sivas, los procesos que no conservan bariones pueden ser muy importantes y

pueden convertir a un Universo inicial con un nivel arbitrario de simetria-barion,

en otro con justo el exceso de bariones que observamos actualmente:

1 por cada 10 9 fotones. En la epoca cuando los bariones y los anti-bariones se

aniquilaron( T ~10 12 K), queda un Universo compuesto predominantemente de

bariones, como hoy se observa.


160

SuperSimetria. (simetria: fuerza-materia). Importante simetria descubierta

en 1974, connota una simetria entre los bosones y los fermiones. Implica a la

llamada Supergravedad, que intenta unificar la fuerza gravitatoria con las otras

fuerzas.

Gravedad Cuantica y la Singularidad Inicial


Cerca de la singularidad inicial la curvatura del espacio-tiempo es muy grande y los efectos

cuanticos llegan a ser significativos. La Relatividad General falla y es necesario


reemplazarla

por una teoria cuantica de la gravedad. El tiempo cuando esto sucede es el tiempo de Planck

1/2
Gh
TP ~ ~ 10 −43 seg, no hay un acuerdo sobre la mejor manera de cuantizar a la
c5

gravedad. Entre este tiempo que corresponde al radio del Universo igual a su longitud de
onda

Compton, h /mc, y el tiempo de Compton (~10 −23 s) cuando el radio del Universo es igual a

la longitud de onda Compton de un proton, efectos cuantico-gravitacionales como la


creacion

de particulas es aun importante pero el concepto de campo gravitatorio y de la metrica del

espacio-tiempo no pueden ser empleados, la metrica fluctua cuanticamente. Se han hecho

muchas investigaciones en este tema, la llamada epoca de Planck.

Ecuacion de Saha. Determina el numero de atomos de una especie dada, en varias

etapas de ionizacion, que existen en un gas en equilibrio termico a una temperatura

y densidad total especificadas.

Equilibrio Termico. Es un estado termodinamico en el cual las tasas con las cuales

las particulas entran en cualquier rango de velocidades, spines, etc., balancean

exactamente a las tasas con que salen de esos rangos. Cualquier sistema fisico, si
161

es dejado sin perturbar durante un intervalo grande de tiempo, eventualmente se

encaminara a tal estado.

Dispersion Thompson. Es el limite de la dispersion Compton, para bajas

energias, es independiente de la frecuencia y es el proceso en el cual la radiacion

electromagnetica es absorbida y reemitida sin (basicamente) cambio en la

frecuencia. La dispersion por electrones libres fue la causa dominante de la

opacidad en el Universo primigenio.

Los fotones tienen energias E γ << m e c 2 .

Quasar. un objeto que parece una estrella pero cuyo espectro de emision de lineas

muestra un corrimiento-al-rojo muy grande. Son los objetos mas luminosos.

Anisotropias en el Fondo de MicroOndas. Experimento diseñado para medir

la intensidad de la radiacion de fondo cosmico CMB, en diferentes direcciones .

Una prediccion fundamental del origen cosmologico de esta radiacion, es que el

movimiento relativo de la Tierra relativo a las regiones distantes del Universo,

debe ser detectable. El efecto implica un incremento en la brillantes de cerca de

10 −3 K en la direccion que estamos moviendonos y una disminucion similar en la

direccion opuesta.

Mini Hoyos Negros. En el Universo primigenio, caotico, se pueden formar tales hoyos

en epocas tan primigenias como el tiempo de Planck. La masa caracteristica de ellos

es 10 −6 gramos, que es la masa minima de una inhomogeneidad colapsante, en ese

tiempo. Por un efecto cuantico que descubrio Hawking, pierden masa, se ”evaporan”
162

en un tiempo del orden de: 10 −3 x M 3 seg. Hoyos negros de masas menores de

M ~10 15 gr se evaporaran en un t ~10 10 años.

Hoyos negros mas grandes se pueden formar en epocas posteriores. Las teorias

convencionales de la evolucion estelar muestran que solo estrellas muy masivas

pueden formar hoyos negros grandes.

Quarks primordiales. Todos los hadrones estan formados con quarks, en la epoca de

altas densidades y temperaturas del Universo muy primigenio, grandes numeros de

quarks habrian estado presentes en equilibrio con las demas particulas elementales.

Cuando el Universo se expandia y se enfriaba, algunos de estos serian eliminados

al ser estructurados en hadrones y si sobrevivieron quarks libres, es un problema

hasta hoy no resuelto.

Relajacion (o Termalizacion). El proceso que se lleva a cabo en un sistema de cuerpos

en el cual, de una distribucion aleatoria de movimientos se llega a un estado relajado

que esta en equilibrio termico.

Graviton. Es el quantum del campo gravitacional. En una teoria cuantica de dicho campo

la fuerza seria propagada por el intercambio de gravitones, estos son particulas con

masa cero, o muy pequeña, carga electrica cero y spin = 2ℏ, su velocidad es la de la luz.

Lepto-quark. Nombre usado para bautizar a los mediadores de la fuerza electronuclear

postulada en la Teoria de la Gran Unificacion ,GUT, la cual es un intento de unificar a

las tres fuerzas: nuclear-fuerte (”fuerza de color”), debil y la electromagnetica. Su masa

se supone a ser de ~10 15 GeV, tienen spin 1h y se denotan con la letra X.

Quantum. Es una cantidad pequeña, discreta, usualmente de energia o de momentum


163

angular, p.ej. el quantum de energia portado por un foton, es: E = hν, donde ν es la

frecuencia de la radiacion electromagnetica asociada.

Region H II. Nube de hidrogeno caliente,ionizado, calentado usualmente por una estrella

Nube H I. Nube de hidrogeno frio y neutral.

Elementos ligeros. hidrogeno, litio, berilio, boro.

Especies. Los elementos y sus isotopos.

Tiempo Cosmologico. En un Universo homogeneo, los tiempos propios de observadores

pueden ser sincronizados para dar un tiempo universal, cosmologico.

Observador co-movil. Uno que esta en reposo con respecto al substrato.

Substrato. La materia en el Universo, que suponemos esta distribuida en un fluido regular,

no-accidentado.

Seccion Transversal de Dispersion.

Es una medida de la probabilidad de que un proceso suceda. O del numero de

eventos de tal proceso. Seciones tipicas en Fisica, son: 3 x 10 −26 cm 2 para la

interaccion de dos protones con alta energia, la cual es comparable al area geo-

metrica, ”area de la particula blanco”. 10 −37 , para para que un neutrino de

10 GeV interactue con un proton, implicando que pasará a traves de 10 11

protones, antes que choque con uno.

Axiones. son bosones de Goldstone necesarios para conservar la simetria CP en las

interacciones nucleares fuertes.

Bosones de Goldstone. Son particulas sin masa que surgen cuando una simetria
164

global (no-local) es rota ”espontaneamente” , son indeseadas y eliminadas usando

una transformacion de Norma (Gauge Transformation).

Gravitino, Fotino, Gluino. son particulas (compañeras al graviton, foton, gluon)

que son predichas por la Teoria de la SuperSimetria.

la masa del gravitino es de M ≈ 1keV, si la M SUSY ≈ 10 6 GeV

la masa del fotino es de 10 a 100 veces la masa del proton

WIMP. siglas,en ingles, de: Particulas Masivas Debilmente Interactuantes.

son candidatas para ser la materia obscura.(Dark Matter)

Metodo de Monte-Carlo. Es una manera de calcular integrales dificiles, al

evaluar a la funcion que deseamos integrar, en un conjunto aleatorio de puntos.

Plasma. Es el 4o. estado de la materia en la cual los atomos estan ionizados. Se

encuentran a muy altas temperaturas, tales como el interior de las estrellas.

Boson-W. Particula mediadora de la interaccion debil, predicha en 1967 y

encontrada en los aceleradores, en 1983.

Densidad del Universo: Ω tot = ρ tot /ρ critica

De las medidas del espectro angular de potencia de las anisotropias de la CMB

resultados del año de 1992, en experimentos en globos aerostaticos encontraron

que el primer pico acustico en el espectro angular se localiza en un valor de

multipolo de ℓ ~210. este resultado es consistente con un valor de la Ω total ,

muy proximo a uno: Boomerang: 1.02 +0.06


−0.03 MAXIMA: 0.9 +0.18
−0.16

Bajo la hipotesis de que las fluctuaciones iniciales de la densidad que dieron

origen a las fluctuaciones de la temperatura, son Gaussianas y adiabaticas,


165

estos resultados dan una evidencia muy fuerte de que nuestro Universo es plano.

(Ω total = 1.0). todos los experimentos son consistentes con un modelo inflacio-

nario, adiabatico, con materia obscura fria (CDM). Los siguientes experimentos

checaran aun mas esta hipotesis y daran informacion sobre el espectro de ondas

gravitacionales predichas por el modelo inflacionario.

Densidad critica del Universo, ρ critica . No se calcula en el sentido normal de la

palabra, sino que en la ec. de Friedman, que da la evolucion del factor de escala

R(t) (esencialmente es el tamaño del Universo), este depende de la constante G N

de la densidad, ρ, y del parametro de curvatura, k. Se sustituyen los valores de

la cte. de Hubble, de G y de k, y se calcula: ρ ≈ 10 −29 gramos. Medidas recientes

de la densidad real, total, son cercanas a esta densidad critica.

Espectro de Potencia. Este espectro de las fluctuaciones de la densidad de materia

(P k ) es una de las cantidades medibles mas importantes. La teoria de como dicho

espectro se relaciona con los otros parametros (tal vez mas interesantes) es muy

sofisticado, Permite medir varios parametros basicos: {Ω m , Ω b , Ω Λ , H o , etc) de

mediciones de la potencia.

Medicion de la densidad de materia: Ω m . Los clusters de galaxias se usan para medir

dicha Ω. El metodo es medir el cociente (M / L) y la densidad de luminosidad del fondo

j
(j), al mismo corrimiento-al-rojo. Esto permite calcular: Ω m = M × ρ crit
L

medidas de este tipo dan: Ω m ~ 0.2 con errores de 20 %. Esto implica que la mayoria

de la materia del Universo es no-barionica, y sugiere que la densidad es menor que la


166

densidad critica.

Isotropia del fondo de microondas. El alto grado de isotropia de la radiacion de fondo

en escala angular grande y pequeña, tiene consecuencias profundas para la imagen del

Universo, y son tres tipos de anisotropia:

(a) anisotropia de 360 ∘ , o de ”dipolo”, de 24 horas

El movimiento combinado del movimiento de la Tierra alrededor del Sol, del Sol

alrededor de la Galaxia, el movimiento de esta dentro del Grupo Local, y el movimiento de

este, respecto al cluster de Virgo, y el movimiento aleatorio de este, con respecto al

substrato, resultaria en que la Tierra tiene un movimiento neto con respecto al sistema de

referencia cosmologico o substrato. Aunque la radiacion de fondo fuera perfectamente

isotropica con respecto al substrato, mostraria una anisotropia de dipolo caracteristica,

debido al efecto del corrimiento Doppler sobre la intensidad observada en la Tierra.

T(θ) =T 0 (1 + v cosθ/c)(1 − v 2 /c 2 ) −1/2

Este tipo de anisotropia fue detectado en 1977 usando un avion tipo U2 y confirmado

usando globos aereostaticos de gran altitud. cuando se corrige para tomar en cuenta el

movimiento alrededor de la galaxia, se calcula que la velocidad de nuestra galaxia con

respecto al fondo de radiacion, es de 520 ± 75 km/seg en una direccion dada por las

coordenadas galacticas: ℓ = 264±10 ∘ , b = 33±10 ∘ .

Esta es una velocidad muy grande comparada con los movimientos aleatorios de galaxias

cercanas y la direccion entra en conflicto con la deducida de estudios de anisotropia en la

expansion Hubble.
167

(b) anisotropia de 180 ∘ , 12-horas o de ”cuadrupolo”

Si el Universo esta girando o se esta torciendo (expandiendose anisotropicamente),entonces

podriamos esperar una anisotropia a gran escala en la cual el fondo se observaria mas frio o

mas caliente que el promedio, en dos direcciones opuestas en el cielo. No se observa tal

efecto y el fondo de radiacion es isotropico en una gran escala con una exactitud de 0.03 %.

(c) anisotropias en pequeña escala.

El Universo es inhomogeneo en escala de masas correspondiente a las galaxias y a sus


cumulos

de 10 8 − −10 15 M ⊙ , se espera que en la epoca de la recombinacion las perturbaciones de la

densidad eran presentes y podrian crecer debido a la influencia de su propia gravitacion.

Para que las galaxias se hayan formado en esa epoca es necesario que la amplitud de esas

∆ρ
perturbaciones de la densidad fuera de magnitud ρ ≳ 0.1% si el parametro de la densidad

cosmologica Ω 0 = 1, y de ≥ 1% si Ω 0 = 0.1.

Las correspondientes fluctuaciones de la temperatura, en el fondo de radiacion observado,

serian ∆T ~10 −4 , o menor, en una escala angular de 0.5 — 20´ .


T

Las observaciones actuales sugieren el valor ∆T ≲ 10 −4 , en escalas de 3´ a 40´.


T

(d) El efecto Zeldovich–Sunyaev

El gas caliente que esta en los cumulos de galaxias interactua con los fotones de la radiacion
de

microondas cosmica, resultando que hacia un cumulo, el fondo se observa mas frio que el

promedio, a grandes longitudes de onda; y mas caliente,que el promedio, a longitudes cortas.

La magnitud de este efecto es de cerca de 0.001 K y ha sido medido en un numero de


168

cumulos.

Parametro g ∗ . Es el numero de estados de spin de todas las especies de particulas

relativistas. Durante la BBN, g ∗ = 10.75 para el escenario estandar.

Nube Lyman-α. Es una nube de gas (mayoria hidrogeno) presente en el Universo

primigenio, que es ”visto” por su absorcion de luz (en la serie Lyman) desde los

quasares mas distantes. La serie de niveles de energia comienza en la Lyman-α,

con: λ = 1216 Å continuando hasta el limite continuo hasta: 912 Å.

Region H II. Es una region de gas caliente ionizado (T >> 10 4 K) (hidrogeno y helio)

y son comunes dentro de nuestra galaxia y de otras.

M.A.C.H.O. Siglas de: Massive Astrophysical Compact Halo Object.

son estrellas demasiado ”debiles” como para ser vistas, que podrian constituir a la

materia obscura barionica: p.ej.: enanas blancas, estrella de neutrones, hoyos negros

enanas cafes, o planetas como Jupiter. Pueden ser detectados por su ”lensing”

gravitacional de estrellas brillantes.

Gravitacional Lensing:

Efecto de Lentes Gravitacionales. Es el efecto de la materia en el espacio-tiempo

curvado, el cual tiende a enfocar cualquier haz de radiacion de una fuente distante

La curvatura del espacio es una lente de una longitud focal grande. A valores del

parametro z ≈ 1, el tamaño angular de un objeto empieza a aumentar con la distancia.

Este efecto distorsiona la imagen del objeto que envia luz, y esas distorsiones se usan

para determinar la distribucion de masas en el objeto.

Cociente Bariones/Fotones, η. Es el cociente calculado, del numero de bariones al de


169

fotones: n b /n γ , en el Universo. Su valor es el mismo ahora como lo fue en el Universo

primigenio, refleja las condiciones que existian justo despues de la ”gran explosion”,

en la era de la nucleosintesis; el valor actual es de η ≃ 10 −10 .

La energia de un foton de microondas es de: 0.001 eV, mientras que la de un proton

es de ~10 9 eV. Por esto, actuelmente, la materia predomina sobre la radiacion.

Datos numericos:

η~ 3x10 −8 Ω b h 20 ~(0.3—10)x10 −10

parametro h, de Wagoner: ρ b = h(Tx10 9 ) 3 = h T 39

3 3
Ω b h 2 = 3.67x10 7 η T 0 η = 2.72 x10 −8 Ω b h 2 2.73
T T

parametro de la desaceleracion q 0 = 0.026

ρ total = π (2 + 7/2 + (7/4)N ν ) T 4 (fotones+electrones+neutrinos)


4
30

Durante la era de la NS, el Universo aumento de tamaño, 100 veces

(de 1/3 parsec hasta 100/3 parsecs) (1 pc = 3x10 18 cm)

y este, fue de 10 −10 veces de su tamaño actual, de: L 0 = 10 28 cm

[comparar esto con el aumento en el tamaño de un bebe humano,

que aumento un millon de veces,desde la concepcion hasta el nacimiento.]

Y la duracion de la expansion del Universo,en esa era NS, fue de 3 minutos

#La densidad del Universo fue de: 10 gr/cm 3 , que corresponde a una densidad

de particulas, de n = 6x10 24 particulas/cm 3 , cuando t = 1 seg.

esto implica unos tiempos de interaccion del orden de τ ~10 −6 seg


170

rango de temperaturas: de (0.5 – 1.2)x 10 9 K

LA SUPERGRAVEDAD, UNA TEORIA UNIFICADA DE LAS 4 FUERZAS


Esta teoria es la extension de la teoria de la Gravitacion de Einstein, tambien llamada:
Relatividad General, porque es una generalizacion de la teoria de la Relatividad Especial,
la cual se limita a sistemas de referencia inerciales, esto es, se mueven con velocidad
constante, en la Teoria General, los sistemas pueden ser acelerados.
La extension considerada consiste en ampliar las transformaciones de coordenadas entre
observadores, a un grupo de transformaciones mas amplio y abstracto que es la llamada
Supersimetria, o simetria que engloba a los Fermiones y los Bosones.
LA TEORIA DE LA GRAVITACION DE EINSTEIN
Cabe aqui hacer una breve sintesis sobre en que consiste la teoria debida a Einstein
en la teoria de la relatividad especial se consideran transformaciones entre sistemas que
tienen velocidad constante, Einstein quiso generalizar su teoria para incluir transformaciones
entre sistemas con aceleracion. Hay una contradiccion entre la Gravitacion Newtoniana y la
Relatividad: en aquella, la fuerza se propaga con velocidad infinita, es instantanea, pero en
la relatividad, la velocidad maxima es c, la velocidad de la luz, asi que es necesario
modificar
a la teoria de la gravitacion newtoniana, este problema le llevo a Einstein resolverlo, 10 años.
finalmente, se dio cuenta que debia trabajar en un espacio con curvatura, usar una
matematica
inventada por Gauss y Rieman: la geometria de los espacios curvados y el calculo tensorial.
al generalizar una ecuacion basica de la gravitacion, debida a Laplace, llego a una ecuacion
que expresa que la materia curva el espacio fisico de 3 dimensiones. Y que las fuerzas
gravitacionales en realidad se deben a la curvatura del espacio.
Esta teoria, muy dificil matematicamente, se comprobo experimentalmente cuando los
astronomos midieron, en un eclipse de Sol, la desviacion de la luz de una estrella lejana cuya
luz nos llega, rozando la superficie del Sol: o sea la gran masa del Sol ocasiona la curvatura
del rayo de luz de la estrella lejana.
El PRINCIPIO ANTROPICO
Algunos fisicos consideran el problema de deducir teoricamente los valores de algunas
constantes fisica a partir de primeros principios, uno de esos intentos lo hizo el Astrofisico
Eddington, en su libro “Teoria Fundamental“, En las modernas Teorias Unificadas algunos
intentan deducir el valor de la carga del electron, o el valor de la llamada “constante de
estructura fina“, descubierta por Somerfeld, llamada “alfa“, y que vale (e 2 /ℏ c) ≈ 1/137.
En 1899, Max Planck descubrio un sistema de unidades, que lleva su nombre, y que valen:
Lp = 0.0000000000000000000000000000000016 centimetros
llamada: Longitud de Planck, es un numero increiblemente pequeño. El tiempo de Planck:
Tp = 0.00000000000000000000000000000000000000000005 segundos
y la Masa de Planck: Mp =0.000022 gramos = 10 19 GeV
estas unidades son aplicadas en las teorias del origen del Universo: donde se mezclan las
teorias unificadas de las Particulas Elementales, y la Teoria de la Gravitacion, de Einstein.
los fisicos Paul Dirac, Robert Dicke, Brandon Carter, siguiendo las ideas de Eddington,
encontraron unas coincidencias notables en las siguientes constantes fisicas:
el numero de particulas del Universo, el radio del Universo en su maxima expansion,
el “radio“ de una particula elemental, la constante de estructura fina, la constante
gravitacional
el numero de fotones en el Universo, el numero de bariones, y la longitud de Planck,
las coincidencias son que, cocientes de esas constantes, son potencias algebraicas del
numero 10 a la potencia 10: 10 ∧ 10. 10 ∧ 20, 10 ∧ 40, 10 ∧ 80.
por ejemplo: 10 ∧ 10 = 10,000,000,000: diez mil millones.
Brandon Carter calculo que si la constante “alfa“ variara un uno por ciento, esto
171

causaria que todas las estrellas serian estrellas rojas o estrellas azules.
En estos casos, ¡ninguna estrella como nuestro Sol existiria! . Carter, en 1968, se pregunto
¿como pudo haberse desarrollado la vida biologica si los valores de las constantes fisicas
hubieran diferido substancialmente de los valores que tienen ?
Los cientificos orientados en cuestiones filosoficas y religiosas se preguntaban si existe
entonces una super inteligencia que diseña el Universo, del modo como un Arquitecto planea
una casa o edificio, basandose en las leyes mecanicas y en la estetica.
El cosmologo Robert Dicke, en 1961, notaba que el orden correcto de las ideas puede no ser:
asi es el Universo, luego el Hombre debe ser, o sea las teorias evolucionistas biologicas.
sino: aqui esta el Hombre, y asi, como debe ser el Universo ?. En otras palabras:
(1) ¿que tan bueno es un Universo sin que exista la conciencia de ese Universo ?
(2) la conciencia demanda la existencia de la vida biologica.
(3) la Vida demanda la presencia de elementos quimicos mas pesados que el hidrogeno
(4) la produccion de elementos pesados demanda que exista la combustion Termonuclear:
produccion de elementos pesados por Fusion Nuclear de elementos ligeros.
(5) la combustion termonuclear requiere normalmente de varios miles de millones de años
de tiempo de “cocina“ dentro de una estrella.
(6) varios miles de millones de años no seran disponibles en un Universo cerrado, de
acuerdo
con la teoria de la gravitacion, a menos que el radio del Universo en su maxima expansion
sea de varios miles de millones de años-luz, o mas.
asi que ¿por que, en este marco de ideas, el Universo es tan grande como los es?
porque solo asi, la Humanidad puede estar aqui, en este Universo.

You might also like