You are on page 1of 26

1. PROBABILIDAD.

1.1 Introduccin a la probabilidad


Si se nos plantea la pregunta cuanto dalsy hay que
proporcionar a un nio de 10 kg de peso, sabiendo que la dosis
recomendada son 25mg por kg? responderemos sin dudar que 250
mg. Sin embargo si se nos pregunta si un feto de 2 semanas ser nio
o nia no podemos dar una respuesta con total garanta de ser cierta,
aunque podramos usar nuestra experiencia para intentar responder
(Sabemos que aproximadamente un 51% de los nacidos son varones).
Qu diferencia hay entre los dos fenmenos? En el primer caso se
trata de un fenmeno determinista, en el que hay una relacin fija
entre causa y efecto que es conocida. En el segundo caso el
fenmeno es aleatorio, al igual que cuando se lanza una moneda o
un dado. Un fenmeno aleatorio es aqul del que a priori solo se
conoce el conjunto de posibles resultados. Si queremos conocer ms
acerca de este tipo de fenmenos hemos de recurrir a la Teora de la
Probabilidad, que los estudia para poder establecer modelos
probabilsticas que nos permitan predecir sus resultados y poder
afirmar, por ejemplo, que al lanzar una moneda slo puede aparecer
una cara o una cruz, y que ambos resultados son igualmente
probables.
El concepto de probabilidad est arraigado en nuestra cultura de
modo que podemos encontrar multitud de ejemplos a nuestro
alrededor: dos de cada veinte citas previas no acuden a una
determinada consulta de enfermera, tengo un 70% de
probabilidades de aprobar el examen, la probabilidad de que llueva
maana es del 95%, etc. La probabilidad de un evento se suele
medir con un nmero entre 0 y 1, que indica como de fcil es que
dicho evento tenga lugar.
Antes de dar una definicin formal de probabilidad y describir sus
propiedades, es preciso introducir algunos conceptos.
Experimento aleatorio: Es la prueba que vamos a realizar de la
que conocemos a priori los posibles resultados, pero no el
resultado concreto que tendr lugar.
Espacio muestral (): Es el conjunto de posibles resultados del
experimento. Cada elemento unitario del espacio muestral se
llama suceso elemental. A cualquier subconjunto del espacio
muestral se le llama, sin ms, suceso.
El espacio muestral puede estar compuesto por una cantidad finita
de elementos o por una cantidad infinita (numerable o no) de ellos.
Al propio espacio muestral se le llama tambin suceso cierto, ya
que incluye seguro al resultado que finalmente ocurrir. Se llama
suceso imposible a aqul que no ocurre nunca, y por lo tanto es
el conjunto de sucesos que no contiene ningn elemento, es decir,
el conjunto vaco, al que se denota: .

Tabla 1: algunos ejemplos de experimentos aleatorios.


Experimento
E1: Lanzar un dado

Espacio muestral
={1, 2, 3, 4, 5, 6}

Algunos sucesos
A=resultado par= {2, 4, 6}
B=resultado mayor de 2= {3, 4, 5,6}

E2: Grupo sanguneo de


una persona

={0+,0-, A, B, AB}

A= presenta grupo 0= {0+, 0-}


B=no presenta grupo 0= {A, B, AB}

E3:
Peso
persona

=cualquier n
positivo=[0,)

A=el sujeto pesa ms de 70kg=


(70,)
B=el sujeto pesa menos de 80 kg=
[0, 80)

E4: Ingresos urgentes


en un servicio un cierto
da.

={0, 1, 2, 3, 4...}

A=hubo menos de 4 ingresos= {0,


1, 2, 3}
B= hubo entre 2 y 5 ingresos = {2,
3, 4, 5}

E5: Sexo de los tres


hijos de un matrimonio

={VVV, VVH, VHV,


VHH, HVV, HVH, HHV,
HHH}

A=el matrimonio tuvo al menos 2


nias= {VHH, HVH, HHV, HHH}
B=el matrimonio solo tiene nias=
{HHH}

de

una

Unin de dos sucesos A y B [AB]: es el conjunto formado por


los elementos que estn en A o estn en B.

Interseccin de dos sucesos A y B [AB]: es el conjunto de


elementos que estn en A y en B. Es decir, los elementos que A y
B tienen en comn.

Sucesos
incompatibles,
disjuntos
o
mutuamente
excluyentes
son
aquellos
que
no
pueden
ocurrir
simultneamente, es decir:
A y B son sucesos disjuntos si AB=

Se llama Suceso complementario de A y se denota Ac A al


suceso contrario a A, es decir, al que ocurre cuando A no lo hace.
Esto implica que AAc= y AAc=

Una familia de sucesos {Ai}i=1,2,,k

se llama particin si son

disjuntos dos a dos y su unin es todo el espacio muestral:


Ai Aj ,i j

y Ai
i1

Tabla 2: A B, A B y Ac en cada uno de los ejemplos presentado en la tabla


3.
Experimento
E1:
A={2,4,6};
B={3,4,5,6}
E1:
A= {0+, 0-}; B= {A, B,
AB}
E3:
A= (70,); B= [0, 80)
E4:
A= {0, 1, 2, 3}; B=
{2, 3, 4, 5}
E5: A= {VHH, HVH,
HHV,
HHH};
B=
{HHH}

A B
{2, 3, 4, 5, 6}

A B
{4, 6}

Ac
resultado impar= {1, 3, 5}

{0+,0- A, B, AB}=

no presenta grupo 0= {A,


B, AB}=B

(70, 80)

70 como mucho= [0, 70]

{2, 3}

al menos 4 ingresos= {4, 5,


6,}

{HHH}
=B

1 nia como mximo={VVV,


VVH, VHV, HVV}

[0, )=
{0, 1, 2, 3, 4, 5}
{VHH, HVH,
HHH}=A

HHV,

1.2 Definicin y propiedades elementales. Teorema de


Bayes
Existen varias definiciones de probabilidad (clsica, frecuentista,
subjetiva). La ms usada es la definicin clsica propuesta por
Laplace en el siglo XVIII
Definicin clsica de probabilidad: La probabilidad de un
suceso A es el cociente entre el nmero de resultados o casos
favorables a su realizacin y el n total de resultados o casos
posibles.
P(A)

n de casosfavorables
n decasosposibles

Esta definicin parte del supuesto de que el espacio muestral es


finito y compuesto por sucesos elementales igualmente probables
y bajo ese supuesto proporciona una medida exacta. De no ser as,
la definicin no es aplicable.
Ejemplo 1. Un experimento consiste en lanzar dos monedas, el espacio muestral
est constituido por ={CC, C+, +C, ++} y si las monedas son correctas, cosa que

hemos de suponer mientras no se nos diga lo contrario, los cuatro resultados son
igualmente probables, por lo que ser de aplicacin la frmula de Laplace. As, si
A={Ha salido una cara}={C+, +C}, p(A)=2/4=0,5.
pregunta: Hay algn experimento de la tabla 1 en que la definicin clsica
de probabilidad no sera aplicable?.
Ejemplo 2. Supongamos ahora un experimento consistente en lanzar dos dados no
cargados simultneamente. El espacio muestral estar constituido por las 36
parejas de valores resultantes de combinar cada una de la 6 caras de un dado con
las 6 caras del otro, a saber, S={(1,1),(1,2),(1,3),(1,4),(1,5),(1,6),(2,1),(2,2),(2,3),
(2,4),(2,5),(2,6),(3,1),(3,2),(3,3),(3,4),(3,5),(3,6),(4,1),(4,2),(4,3),(4,4),(4,5),(4,6),
(5,1),(5,2),(5,3),(5,4),(5,5),(5,6),(6,1),(6,2),(6,3),(6,4),(6,5),(6,6)}.
Al
no
estar
cargados los dados, todos los resultados son igualmente probables y nuevamente
podemos utilizar la frmula de Laplace. Sea A={la suma de las caras es menor que
5} entonces A contiene los puntos, A={(1,1),(1,2),(1,3),(2,1),(2,2),(3,1)} y
P(A)=6/36=1/6.

Independientemente la definicin elegida y del experimento


estudiado, definir la probabilidad de un suceso consiste en asignarle
una cantidad entre 0 y 1. Pero esta cantidad no puede asignarse de
cualquier manera, existen unas
reglas o condiciones que las
probabilidades deben de verificar para que alcancen el objetivo de
proporcionarnos modelos que nos describan y expliquen los
fenmenos aleatorios. Se impone pues dar una definicin formal del
concepto:
Definicin (formal) de probabilidad La probabilidad, P, es una
funcin que verifica los siguientes axiomas:
1. Para cualquier suceso A, P(A) 0,
2. Para el suceso cierto , P() = 1,
3. Si A y B son dos sucesos disjuntos, AB=, entonces P(AB) =
P(A) + P(B)
Del cumplimiento de los axiomas anteriores se deducen las siguientes
propiedades.
Propiedades:
1.) P()=0
2.) Si A est incluido en B, entonces: P(A)P(B)
3.) 0P(A) 1
4.) P(Ac) = 1 - P(A)
5.) Si A y B son dos sucesos cualesquiera entonces P(AB) = P(A)
+ P(B) - P(AB).
Ejemplo 3. 200 personas presentan la siguiente distribucin segn sexo y estado
civil:

hombr
e
mujer
total

casad
o
60

solter
o
25

viud
o
5

Sep/di
v.
10

total

62
122

23
48

6
11

9
19

100
200

100

Extraemos al azar a una de estas personas y consideramos los siguientes sucesos


M: la persona es mujer; C: la persona est casada, S: la persona est soltera
y V: la persona est viuda. Calcular la probabilidad de los siguientes sucesos: M c,
MV, Sc, CS, VM
P(Mc)=P(ser hombre)=100/200=0,5
P(MV)=6/200=0,03
P(Sc)=1-P(S)=1-48/200=0,76
P(CS)=(122+48)/200=0,85
P(VM)=P(V)+P(M)-P(MV)=11/200+100/200-6/200=105/200=0,525

Probabilidad condicionada, P(A|B), es la probabilidad de que


ocurra A cuando sabemos que ha ocurrido B. Se lee probabilidad
de A dado B.
Se verifica siempre que:
P(A| B)

P(A B)
P(B)

Dos sucesos se llaman independientes cuando la ocurrencia de


uno no aporta informacin acerca de la ocurrencia del otro.
Es decir dos sucesos A y B son independientes si P(A|B)=P(A)
Sustituyendo la ltima expresin en la anterior tambin se tendra:
Dos sucesos A y B son independientes si P(AB)=P(A)P(B)
Ejemplo 4. En el ejemplo anterior obtener la probabilidad de una persona sea:
a) Viudo si se sabe que es hombre
b) Hombre dado que se trata de un casado.

P(V H)
5 / 200
5

0,05
P(H)
100/ 200 100
P(H C) 60/ 200 60

0,49
b) P(H| C)
P(C)
122/ 200 122
a) P(V | H)

Ejemplo 5. El informe, correspondiente al ao 1989, del registro de enfermedades


renales de la Comunidad Valenciana clasifica a los enfermos segn el tipo de
tratamiento recibido y la provincia de residencia.

HD
Alicant
e
Valenci
a
Castell
n
total

DPC
A
25

TRAN
S
92

total

381

HDD
M
2

882

12

38

271

1204

162

41

207

1425

18

64

404

1911

500

HD: hemodilisis, HDDM: hemodilisis domiciliaria; DPCA: dilisis peritoneal


continua ambulatoria;
TRANS: transplante.
Suponiendo que se elige al azar paciente incluido en este registro, obtener la
probabilidad de que el paciente:
a) Haya sido transplantado
b) Haya sido transplantado, sabiendo que es de Valencia.
c) Haya sido transplantado, sabiendo que es de Alicante.
d) Haya sido transplantado, sabiendo que es de Castelln.
a) P(TRANS)=404/1911=0,2114

P(TRANS
V ) 271

0,2250
P(V )
1204
P(TRANS
A) 92
| A)

0,1840
c) P(TRANS
P( A)
500
P(TRANS
C)
41
| C)

0,1980
d) P(TRANS
P(C)
207
| V)
b) P(TRANS

Teorema de la probabilidad total: Dado un suceso B y una


particin del espacio muestral {A 1,A2, , An}, con P(Ai)>0, para
todo i, se verifica:
n

P(B) P(B| Ai ) P(Ai )


i1

A1
B

A2
A3

P(B) P(B| A1 )P( A1 ) P(B| A2 )P( A2 ) P(B| A3 )P( A3 )


Ejemplo 5. (Aplicacin til del teorema de la Probabilidad total) Es bien
conocida la reticencia de los encuestados a contestar preguntas delicadas
(preguntas acerca de las creencias religiosas, consumo de estupefacientes, hbitos
sexuales, etc.). En este sentido, es una baza importante poder tranquilizar a los
encuestados, garantizando al mximo el anonimato. Veamos un mtodo sencillo
derivado de la aplicacin del teorema anterior.
Se pretende conocer la opinin sobre el aborto entre los 100 estudiantes de una
clase. Se colocan 100 bolas numeradas del 1 al 100 en una urna y se hace extraer
una bola a cada alumno. Los alumnos cuyo nmero est entre 1 y 40 respondern a
la pregunta Estas a favor del aborto? Los alumnos con un nmero entre 41 y 100
respondern a la pregunta Tu DNI acaba en nmero par? La respuesta a la
pregunta escrita en un trozo de papel (adecuadamente doblado) se deposita en una
urna. Al proceder de esta forma el anonimato queda garantizado porque slo el
individuo conoce su nmero y por lo tanto a cual de las dos preguntas respondi.
Se cuentan los papeles que tienen S y resultan 56 y ahora es tarea nuestra
calcular la probabilidad de estar a favor del aborto.

Sea A={contestar s} ; B={haber contestado a la primera pregunta} y B C={haber


contestado la segunda pregunta}. Segn esta notacin la probabilidad que nos
interesa es P(A|B).
Segn el teorema de la probabilidad:
P(A)=P(A|B)P(B)+ P(A|BC)P(BC)
Sustituyendo en esta frmula la informacin disponible, resulta: 0,56=P(A|B)0,4+
P(A|BC)0,6. Podemos asumir que la mitad de los DNI acabarn en nmero par, y por
tanto aproximar P(A|BC) por 0.5, con esta suposicin:

0,56 P( A| B)0.4 0,3 P( A| B)

0,26
0,65
0,4

Teorema de Bayes: Dado un suceso B, P(B)>0 y una particin del


espacio muestral {A1,A2, , An}, con P(Ai)>0, para todo i, se
verifica:

P(Ai | B)

P(B| Ai ) P(Ai )
P(B| Ai ) P(Ai )
n
P(B)
P(B| Ai) P(Ai)
i1

Ejemplo 6. En las tres regiones de un pas (R1, R2 y R3) se declar una epidemia
de clera. En R1 hubo un 25% de contagios, en R2 un 8% y en R3 un 14%. Por otra
parte 10% de la poblacin del pas vive en R1 y el 40% en R2.
a) Calcular la probabilidad de que un habitante del pas que ha sido contagiado
viva en la regin 3.
b) Si se extrae un individuo al azar de la poblacin, Cual es la probabilidad de
que est sano?
a) Sea C={contagiado de clera} y sea Ri= { el individuo vive en Ri}, P(R3|C)?

P(R3 | C)

P(C| R3 )P(R3 )
0,14 0,5

0,55
P(C | R1 )P(R1 ) P(C | R2 )P(R2 ) P(C | R3 )P(R3 ) 0,25 0,1 0,08 0,4 0,14 0,5

b) P(Cc)?. El denominador del apartado a) es precisamente P(C), por lo que


P(Cc)=1-0,127=0,873

1.3 Valor diagnstico de un test


Los tests diagnsticos son una aplicacin del teorema de Bayes a
la Medicina y se basan en lo siguiente. Supongamos que la prueba
exacta para diagnosticar cierta enfermedad es invasiva o costosa.
Entonces se planea sustituirla por otra de aplicacin ms conveniente
aunque falle algunas veces. La primera prueba se denomina Gold
Standard y la segunda prueba se denomina test diagnstico de la
enfermedad.
As, un individuo puede estar enfermo(E) sano(S) y, en paralelo,
el test diagnstico sobre l, puede dar un resultado positivo(+), lo que
supondra la asuncin de enfermedad, negativo(-), lo que supondra
la asuncin de ausencia de enfermedad.

Toda la casustica puede resumirse con una tabla de doble entrada:


E

tota
l
N+
NN

+
n1
n2
n3
n4
tot NE
NS
al
n1:
n
de
individuos enfermos con
test positivo:verdaderos positivos
n2: n de individuos sanos con test positivo:falsos positivos
n3: n de individuos enfermos con test negativo: falsos negativos
n4: n de individuos sanos con
test negativo: verdaderos
negativos
NE = n1+ n3: n de individuos enfermos
NS = n2+ n4: n de individuos sanos
N+= n1+ n2: n de individuos con test positivo
N-= n3+ n4: n de individuos con test negativo
N: n total de individuos= N+ + N-= NE + NS
Para evaluar la bondad o precisin del test diagnstico existen
varios indicadores, fcilmente calculables a partir de la tabla anterior
-Sensibilidad del test [S]: Es la probabilidad de que el test de
positivo en un individuo que sabemos posee la enfermedad. Es decir
una medida de la capacidad del test para identificar enfermos.
n
S P( | enfermo
) 1
NE
-Especificidad del test [E]: Es la probabilidad de que el test de
negativo en un individuo que sabemos est sano. Es decir una medida
de la capacidad del test para identificar sanos
n
E P( | sano
) 4
NS
n n
-Probabilidad de acierto: A 1 4
N
-Valor predictivo positivo [VPP]: probabilidad de estar enfermo,
dado que el resultado del test fue positivo
n
VPP P(enfermo
| ) 1
N
-Valor predictivo negativo [VPN]: probabilidad de estar sano,
dado que el resultado del test fue negativo
n
VPN P(sano| ) 4
N

Ejemplo 7. Se aplica una prueba diagnstica para diagnosticar cierta enfermedad


a 150 pacientes con los siguientes resultados:

+
tot
al

5
15
20

20
110
130

tota
l
25
125
150

Sensibilidad:
S=5/20=0,25
Especificidad:
E=110/130=0,85
Probabilidad de acierto: A=115/150=0,77
Notar que la probabilidad de acierto puede resultar engaosa, dada su dependencia
a la prevalencia de enfermedad en la muestra estudiada
Ejemplo 8. Un test diagnstico diseado para detectar cierta enfermedad tiene
una sensibilidad igual a 0,97 y da positivo el 5% de los casos en que se aplica a una
persona que no padece la enfermedad. Si inicialmente se piensa que la
probabilidad de estar enfermo es 0,8, determinar cmo se modifica dicha
probabilidad para un sujeto en el que el resultado del test da positivo
VPP=P(E|+)?, datos:
teorema de Bayes:

S=P(+|E)=0,97 y P(E)=0,8, P(+/S)=0,05, utilizando el

VPP P(E | )

P( | E)P(E)
0,987
P( | E)P(E) P( | S)P( S)

2. VARIABLE ALEATORIA. TIPOS DE VARIABLES ALEATORIAS.


DISTRIBUCIN
DE
PROBABILIDAD.
FUNCIN
DE
DISTRIBUCIN.
ESPERANZA
Y
VARIANZA.
INDEPENDENCIA DE VARIABLES.
Definicin de variable aleatoria. Tipos de variables aleatorias.
Como hemos visto en los ejemplos del tema anterior, el espacio
muestral y sus sucesos son entes abstractos de difcil manejo. Una
simplificacin necesaria pasa por introducir el concepto de variable
aleatoria.
Dado un experimento con un espacio muestral , una variable
aleatoria, X, se define como una aplicacin de en el conjunto
de los nmeros reales que asigna a cada resultado del
experimento un nmero.
X: -> R
s -> nmero
En lenguaje coloquial se trata de asignar un nmero a cada
resultado que obtengamos del experimento. Es costumbre
designar las variables con las ltimas letras de abecedario en
maysculas, X, Y, Z y si deseamos referirnos a un valor concreto
(desconocido)
de
una
variable
utilizar
la
minscula
correspondiente.
Notar que en un experimento quiz puedan definirse varias
variables aleatorias y se habr de elegir aquella que facilite la
resolucin del problema al que nos enfrentemos.

Veamos algunos ejemplos.

Tabla 1: algunos ejemplos de variables aleatorias.


Experimento
E1: Lanzar dos monedas

Espacio muestral
={CC,C+,+C,++}

Posibles variables aleatorias


X: n de caras={0,1,2}

E2: Lanzar dos dados

={(1,1),(1,2),,{6,6)}

X: suma del resultado obtenido={2,3,


,12}

E3:
Peso
de
una
persona
E4: Ingresos urgentes
en un servicio un cierto
da.

= [0,)

X: peso=[0, )

={0, 1, 2, 3, 4...}

X: n de ingresos= {0, 1, 2, 3,}


B= hubo entre 2 y 5 ingresos = {2,
3, 4, 5}

Atendiendo a la cantidad de valores que las variables pueden


tomar, las variables aleatorias se clasifican en discretas y
continuas.
- Variables discretas: son las que toman una cantidad finita o
infinita numerable de valores. La variable X de los experimentos
E1, E2 y E4 en la tabla anterior son variables discretas.
- Variables continuas: son las que toman una cantidad infinita
no numerable de valores. Su campo de variacin se mide en
intervalos. La variable X del experimento E3 es una variable
continua.
Distribucin de probabilidad. Funcin de distribucin.
Puesto que todo experimento es aleatorio, la variable o variables
que se definen en relacin al experimento tambin lo son, esto es,
cada valor de la variable tiene una probabilidad de ocurrir. Se
llama funcin de probabilidad o de densidad a la funcin que
asigna a cada valor de la variable su probabilidad de ocurrencia.
Para dar una definicin correctamente expresada, es preciso
distinguir entre variables discretas y continuas. As, cuando se
trate de una variable discreta, hablaremos de funcin de
probabilidad y la denotaremos por p. Cuando se trata de una
variable continua hablaremos de funcin de densidad y la
denotaremos por f.
En los apartados siguientes, las definiciones se darn en paralelo,
segn esta distincin.
Dada una variable aleatoria discreta X, con posibles valores {x 1,
,xn} se llama funcin de probabilidad a p tal que:
p(x)=P(X=x)
y verifica las siguientes propiedades:

1.) P(x) 0 , para todo nmero real x


b

2.) P(a X b) p(x)


a

3.)

p(x ) 1
i1

Dada una variable aleatoria X, con valores en [x min,xmax] se llama


b

funcin de densidad a f tal que:

P(a X b) f(t)dt
a

y verifica las siguientes propiedades:


1.) f(x) 0 , para todo nmero real x
xmax

2.)

f(t)dt 1

xmin

Notar que cuando una variable es continua la probabilidad


expresada en la frmula anterior es el rea que hay por debajo de
la funcin f entre x=a y x=b. As pues la probabilidad de que X
tome un nico valor, correspondera a calcular el rea de una lnea
y por tanto siempre valdr cero.
Ejemplo 1: En un C.A.P. en el que trabajan 8 enfermeras y 4 mdicos hay que
preparar un programa de atencin a enfermos diabticos y se decide que el
programa ser elaborado por tres personas elegidas al azar entre todo el equipo.
Sea X la variable definida como nmero de enfermeras que elaborarn el programa.
a) Indicar el tipo de variable de que se trata y obtener su distribucin de
probabilidad (funcin de probabilidad o de densidad).
b)
Calcular la probabilidad de que al menos 2 enfermeras colaboren en la
elaboracin del programa
c) Calcular la probabilidad de ms de dos enfermeras colaboren en la elaboracin
del programa.
a) Se trata de una variable discreta ya que solo puede tomar 4 valores:
X={0,1,2,3}. Por lo tanto, dar su distribucin de probabilidad es obtener p(x) ,
siendo x=0,1,2,3
P(0)=P(X=0)=P(MMM)=

4 3 2
2

0,0182
12 11 10 110

P(1)=P(X=1)=P(EMM)+P(MEM)+P(MME)=

8 4 3 4 8 3 4 3 8
8


3
0,2182
12 11 10 12 11 10 12 11 10
110
P(2)=P(X=2)=P(EEM)+P(EME)+P(EEM)= 3

P(3)=P(X=3)=P(EEE)=

8 7 4
56

0,5091
12 11 10 110

8 7 6
28

0,2545
12 11 10 110

Notar que se trata de una funcin de probabilidad bien definida, ya que p(x) 0 y

p(0) p(1) p(2) p(3)

2
24 56 28 110

1
110 110 110 110 110

b) P(X 2)=p(2)+p(3)=0,5091+0,2545==0,7635
c) P(X> 2)= p(3)=0,2545
Ejemplo 2: Sea X una variable aleatoria discreta que toma valores X={0,2,4,6}. Su
funcin de probabilidad viene dada por p( x) k x 1 . Calcular La probabilidad de
que X sea al menos 2.
En primer lugar necesitamos conocer el valor de k. Para su obtencin partiremos de
que la suma de las probabilidades de todos los valores de la variable debe ser 1:

p(0) p(2) p(4) p(6) k k3 k5 k7 1 k

1
16

Notar que podemos hacer uso de las propiedades de la probabilidad para intentar
reducir los clculos.
P(X 2)=1-P(X<2)=1-p(0)=1-(1/16)=15/16=0,9375
Ejemplo 3: Sea X una variable aleatoria continua que toma valores en [0,2], cuya
funcin de densidad viene dada por: f(x)=k(2-x)
a) Obtener el valor de k.
b) Calcular la probabilidad de que X sea mayor o igual que 1.
c) Calcular la probabilidad de que X sea mayor que 1.
2

a) Sabemos

f (t )dt 1
0

b) P( X 1)

f (t )dt

x2
k 2 xdt k 2x
2

P( X 1)

1
x
2x

2
2
2

4
1

k 4 2k 1 k
2
2

1
4
1
1
1
4 2
2
2
2
2
4

1
c) P( X 1) P( X 1)
4

Dada una variable aleatoria X, se llama funcin de distribucin


a F tal que:
F(x)=P(Xx)
Si X es una variable discreta: F(x0)

x0

p(x)

xmin

Si X es una variable continua: F(x0)

x0

f(t)dt

xmin

Toda funcin de distribucin verifica las siguientes propiedades:


1) 0 F(x) 1, paratodox
2)
F
es
una
funcin
montona
no
decreciente:
Si x0 x1 F(x0) F x1
3) Si xmax es el mximo valor que puede tomar X, F(xmax)=1
4) Se verifica:
- Si X es una variable discreta: P(a X b) F(b) F(a) P(a)
- Si X es una variable continua: P(a X b) F(b) F(a)

Ejemplo 4: Calcular la funcin de distribucin de la variable X presentada en el


ejemplo
2.
1

p( x)

X
0
2
4
6

p
1/16
3/16
5/16
7/16

F
1/16
4/16
9/16
16/16=
1

x 1
16

Ejemplo 5: Calcular la funcin de distribucin de la variable X presentada en el


ejemplo 3.

f ( x)

1
2 x , x [0,2]
2

x
1
1
t2
F( x) 2 t dt 2t
2 0
2
2

1
x2
x2
2x
x
2
2
4

Esperanza y varianza.
Se llama Esperanza o valor esperado [ E(X) ] de una variable
X, al valor medio que resultara tras infinitas realizaciones de la
variable. Es una medida de posicin que identifica el centro de
gravedad de la distribucin.
- Si la variable es discreta: E[X]

xmax

x p(x)

xmin

- Si la variable es continua: E[X]

xmax

t f(t)dt

xmin

La esperanza verifica las siguientes propiedades:


1) xmin E[X] xmax
2) La esperanza es un operador lineal:
Si Y=aX+b ->
E[Y]=aE[X]+b
3) Generalizacin: la esperanza de cualquier otra funcin g(x)
viene dada por E[g(X)]

xmax

g(x) p(x)

si la variable es discreta y

xmin
xmax

por

E[g(X)]

g(t) f(t)dt si la variable es continua.

xmin

Ejemplo 6: Calcular la esperanza de la variable X presentada en el ejemplo 2.


X
0

P(x)
1/16

2
4
6

3/16
5/16
7/16

E(X)

xp(x)
01/16=
0
6/16
20/16
42/16

0 6 20 42 68

4,25
16
16

Notar que en el caso de una variable discreta, la esperanza no tiene por que ser un
valor posible de la variable.
Ejemplo 7: Calcular la esperanza de la variable X presentada en el ejemplo 3.

f ( x)

1
2 x , x [0,2]
2

2
2
1
1
1 2t 2 t 3
E( x) t 2 t dt 2t t 2dt

2 0
2 0
2 2
3

1
8
2
4
2
3
3

Ejemplo 8: Supongamos que la asignatura de estadstica se califica como la suma


de las puntuaciones obtenidas en 5 ejercicios ms 1 punto por la asistencia.
Sabiendo que la nota media de un ejercicio suele ser 1,5, obtener la nota media
para la asignatura.

Y 5X 1

E[Y] 5 E[X] 1 51,5 1 8,5

Se llama Varianza [ Var(X) 2 ] de una variable X, a la suma de


las diferencias cuadrticas relativas con respecto a la media. Es
una medida de dispersin que mide el alejamiento de los valores
respecto de la media.

Var[X] E X E[X] 2
2
- Si la variable es discreta: Var[X]

xmax

p(x)

xmin

2
- Si la variable es continua: Var[X]

xmax

f(t)dt

xmin

La Varianza verifica las siguientes propiedades:


1) Var(X) 0
2) La varianza es un operador cuadrtico que no depende de los
cambios de origen: Si Y=aX+b -> Var[Y]=a2Var[X]
3) Se puede demostrar Var[X]=E[X2]-E[X]2
La varianza se mide en las unidades de la variable al cuadrado,
con objeto de disponer de una medida de dispersin en las mismas
unidades que la variable y as poderla interpretar con facilidad, se
define la desviacin tpica [] como la raz cuadrada positiva de
la varianza.

Var(X)

Ejemplo 9: Calcular la desviacin tpica de la variable X presentada en el ejemplo


2.
=4,25
X
0
2
4
6

p(x)
1/16
3/16
5/16
7/16

(x-)
-4,25
-2,25
-0,25
1,75

(x-)2
18,0625
5,0625
0,0625
3,0625

(x-)2p(x)
18,06/16
15,19/16
0,31/16
21,44/16

Var(X) 2

18,06 15,19 0,31 21,44 55

3,43
16
16

3,43 1,85

Ejemplo 10: Calcular la desviacin tpica de la variable X presentada en el ejemplo


3.

f ( x)

1
2
2 x , x [0,2] ; E(x)
3
2

1
Var(X) E(X ) E(X)
2
2

2
t 2 t dt

3
2

1 2t3 t4

2 3
4

2
0,47
9

1 16 16
2

2 3
4
3

2
9

3. ALGUNAS DISTRIBUCIONES CONOCIDAS: BERNOUILLI,


BINOMIAL, POISSSON, MULTINOMIAL, NORMAL, TSTUDENT.
Distribuciones discretas: Bernouilli
Definicin: Una variable aleatoria, X, es una Bernouilli, si
representa la ocurrencia de un suceso con solo dos resultados
posibles (xito y fracaso), siendo la probabilidad de xito p.
Normalmente el xito se representa con X=1 y el fracaso con X=0,
aunque puede hacerse al revs sin que la decisin afecte a los
resultados.
Notacin: X ~ Br(p)
Ejemplo: X: un paciente tiene gripe, X~ Br(p), siendo p la
probabilidad de contraer gripe en la poblacin.
Funcin de probabilidad:
p(1)=p ; p(0)=1-p
O lo que es lo mismo:

p(x)=px (1-p)1-x ,con x=0;1

Esperanza: E[X]=0(1-p)+1p=p
Varianza: E[X2]=02(1-p)+12p=p ->Var(X)=p-p2=p(1-p)
Notar que la variable X queda completamente caracterizada si se
conoce el parmetro p.
Distribuciones discretas: Binomial
Definicin: Una variable aleatoria, X, Binomial representa el
resultado de la realizacin de n pruebas independientes de tipo
Bernouilli cada una de ellas con probabilidad de xito p.
Notacin: X ~ Bi(n,p)
Ejemplo: X: n de pacientes de un total de 20 que tiene gripe,
siendo p la probabilidad de contraer gripe en la poblacin.
Funcin de probabilidad:
n
px(1 p)nx ,con x=0,1,,n
x

p(x)
n

n!

1 y, por definicin,
Notar que
, n! n(n 1)(n 2)...
x!(n x)!
x
0!=1

Conceptualmente cuenta el nmero de formas distintas de


x
ubicar a x individuos en n puestos.
Esperanza: E[X]=np
Varianza: Var(X)=np(1-p)
Notar que la variable X queda completamente caracterizada si se
conocen n y p.
Ejemplo 11: En una determinada poblacin la proporcin de fumadores es del
25%. Se toma al azar una muestra de 20 personas y se desea obtener:
a) probabilidad de que no fume ninguna persona de la muestra
b) probabilidad de que fumen ms de 2
c) media y desviacin tpica del nmero de fumadores en la muestra.
X: n de fumadores en la muestra; X~Bi(20, 0,25), luego:

20
0,25x(1 0,25)20 x, x 0,1,2,...,
20
x

p(x)

20
0,250(0,75)20 0,7520 0,00317
0

a) P(X 0) p(0)

b) P(X2)=1-P(X<2)=1-P(X=0)-P(X=1)=1-p(0)-p(1)

20
0,250,7519 200,250,00422
0,0211
1

P(X2)=1-0,0032-0,0211= 0,9757
p(0) 0,0032
;

c)

p(1)

E(X)=np= 200,25=5; Var(X)=np(1-p)=200,250,75=3,75 -> =1,936

Distribuciones discretas: Poisson


Definicin: Una variable aleatoria, X, Poisson representa el
nmero de ocurrencias de cierto evento que ocurre por trmino
medio veces.
Notacin: X ~ Po()
Ejemplo: X: n de llamadas en un da la centralita del hospital.
Funcin de probabilidad:
p(x) e

Esperanza: E[X]=
Varianza: Var(X)=

x
x!

x=0;1;2;

Notar que

p(x) e

x1

p(x 1) . Esta es la llamada ley de


x x 1!
x

recurrencia de una Poisson, que nos ofrece la posibilidad de ir


obteniendo la probabilidad de un nmero a partir de la
probabilidad del nmero anterior.
Ejemplo 12: Sea X, el nmero de personas/semana que solicitan tratamiento
innecesario en un hospital comarcal. Sabiendo que al da una media de 2 pacientes
lo hacen. Obtener la probabilidad de no tener ningn caso una semana concreta, la
probabilidad de tener menos de 4 solicitudes innecesarias.
X: n de personas a la semana que solicitan tratamiento innecesario;
luego:

p( x) e14

14x
,
x!

X~Po(14),

con x=0,1,2,3

140
e14 , y a partir de aqu utilizando la ley de recurrencia:
0!
14
14
14
p(1)
p(0) 14e14 ; p(2)
p(1) 98e14 ; p(3)
p(2) 457,33e14
1
2
3

p(0) e14

p( X 4) e14 14e14 98e14 457,33e14 570,33e14 0,0005

Distribuciones discretas: Multinomial (no va)


Definicin: Una variable aleatoria, X, multinomial representa el
nmero de ocurrencias de cada una de k clases posibles, con
probabilidades respectivas de ocurrencia p1, p2,,pk, en un total
de n pruebas.
Notacin: X ~ M(n, p1, p2,,pk)
Ejemplo: X: n de enfermeras, mdicos y auxiliares en un
servicio, siendo 0,45, 0,2 y 0,35 las probabilidades respectivas
Funcin de probabilidad:
p(x1 ,x2 ,...,xk)

n!
p1x1 ...
pkxk
x1!x2!...
xk!

Esperanza del suceso i: E[Xi]= npi


Varianza del suceso i : Var(Xi]= npi(1-pi)
k

Notar que

1 y

Notar que tanto la Poisson como la multinomial son extensiones de


la binomial. En el caso de la Poisson, la diferencia con la binomial
es que el nmero de pruebas se extiende a un infinito numerable,
en el caso de la multinomial el nmero de posibles resultados de
cada prueba se extiende ms de dos.

Ejemplo 12: El porcentaje de mdicos, enfermeras y auxiliares en cierto hospital


viene a ser 45, 20 y 35%.
En un servicio de este hospital con una dotacin de 25 trabajadores obtener la
probabilidad de que haya 5 mdicos y 18 enfermeras.

p( x1 18,x2 5,x3 2)

25!
0,45180,25 0,352 0,00023
5!18!2!

Distribuciones continuas: Normal

La distribucin normal tiene gran importancia debido a que


muchas de las variables observadas en ciencias de la salud se
pueden considerar distribuidas as. La distribucin normal se
caracteriza por dos parmetros: la media y la varianza o
desviacin tpica y viene a representar aquellas variables en las
que la densidad de probabilidad tiene forma de campana,
simtrica respecto a la media.
Ejemplo:

Notacin: X ~ N(, )
Funcin de densidad:
f(x| ,)

x 2
1
exp

22
2

- x

Esperanza: E[X]=
Varianza: Var(X]= 2
Se llama normal tipificada a Z, variable normal con media 0 y
desviacin tpica 1:

Z~ N(0, 1). La funcin de distribucin de la normal tipificada se


suele denotar por . (z) est tabulada (ver tablas de la normal
estndar) y estas tablas son las que se utilizar para el calculo de
probabilidades relacionadas con cualquier otra variable normal. El
clculo se realiza utilizando la siguiente equivalencia.
x
Si X~ N(, ) -> F(x0) 0

Notar que por


z 1 z

tratarse

de

una

distribucin

Tabla 1. reas bajo la curva normal estndar.

z P(Z z)

0.00

.01

.02

.03

.04

.05

.06

.07

.08

.09

0.0

.5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319

.5359

0.1

.5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714

.5753

0.2

.5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103

.6141

0.3

.6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480

.6517

0.4

.6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844

.6879

0.5

.6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190

.7224

0.6

.7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517

.7549

0.7

.7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823

.7852

0.8

.7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106

.8133

0.9

.8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365

.8389

1.0

.8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599

.8621

1.1

.8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810

.8830

1.2

.8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997

.9015

simtrica

1.3

.9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162

.9177

1.4

.9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306

.9319

1.5

.9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429

.9441

1.6

.9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535

.9545

1.7

.9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625

.9633

1.8

.9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699

.9706

1.9

.9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761

.9767

2.0

.9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812

.9817

2.1

.9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854

.9857

2.2

.9861 .9864 .9868 .9871 .9875 .4878 .9881 .9884 .9887

.9890

2.3

.9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913

.9916

2.4

.9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934

.9936

2.5

.9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951

.9952

2.6

.9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963

.9964

2.7

.9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973

.9974

2.8

.9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980

.9981

2.9

.9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986

.9986

3.0

.9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990

.9990

3.1

.9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993

.9993

3.2

.9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995

.9995

3.3

.9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996

.9997

3.4

.9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997

.9998

Ejemplo 13: La concentracin de colesterol total en una poblacin sigue una


distribucin normal con media 200mg/100ml y desviacin tpica 20 mg/100ml. Si
escogemos una persona de esta poblacin, calcular la probabilidad de tener una
concentracin:
a) menor que 225 mg/100ml
b) mayor que 150 mg./100ml
c) entre 180 y 210 mg./100ml
a) X= concentracin de colesterol total en mg/100ml; X~N(200,20) P(X 225)?

225 200
1,25 0,8944
20

P( X 225) F(225)

b)

150 200
1 2,5 1 1 2,5 2,5 0,9938
20

P( X 150) 1 F(150) 1
c)

220 200
180 200

1 1 2 1 1
20
20

P(180 X 220) 20,8413 1 0,6826


P(180 X 220) F(220) F(180)

Ejemplo 14: Sea Z una normal tipificada encontrar z tal que


d) P(Z z)=0,995
e) P(Z z)=0,975
f) P(Z z)=0,95
Y obtener el valor de P(-z Z z).
a) z 0,995, luego ahora hay que buscar este valor dentro de la tabla para ver
a que fila y columna (2 decimal) corresponde. El valor exacto estar entre 2,57
(p=0,9949) y 2,58 (p=0.9951), de modo que podramos aproximar z=2,575.
P(-2,575 Z 2,575)=1-20,005=0,99
b) z 0,975. El valor exacto estar corresponde a 1,96. P(-1,96 Z 1,96)=120,025=0,95

c) z 0,95. El valor exacto estar entre 1,64 (p=0,9495) y 1,65 (p=0.9505), de


modo que podramos aproximar z=1,645. P(-1,645 Z 1,645)=1-20,05=0,90

Distribuciones continuas: Chi-cuadrado y t-Student (no va)


La
distribucin
Chi
cuadrado:
2
2
Y X1 ... Xk , Xi ~N(0,1) , independientes.
Media: k
Varianza: 2k

La
T

distribucin
Z
,
Y/k

t-Student:

Z~N(0,1), Y ~k2 , independie


ntes

Media: 0 si k>1
Varianza: K/(k-2) si k>2

Y ~k2

T ~tk

si

si

Algunas aproximaciones:
1. Aproximacin de la binomial a la normal:
si X ~ Bi(n,p), =np, 2=np(1-p), para valores de
suficientemente grandes*: X se comporta como X~ N(, ).
* n suficientemente grande equivale a cumplir ambas:
n(1-p)>5.

np>5 y

2. Aproximacin de la poisson a la normal:


si X ~ Po(), para valores de suficientemente grandes:
comporta como X ~N ,

X se

* suficientemente grande equivale a decir ->, sin embargo en


la prctica suele aceptarse, >100
3. Aproximacin de la t-Student a la normal:
si T ~tk para valores de k suficientemente grandes: X se comporta
como X ~N 0,1
* k suficientemente grande equivale a decir k->, sin embargo en
la prctica suele aceptarse, k>100 incluso k>30
Estas propiedades pueden resultar muy tiles para hacer cculos que
de otra forma seran tediosos o incluso problemticos.
Ejemplo 15: La proporcin de fumadores en determinada poblacin es p=0,2. Si
extraemos al
azar una muestra de 40 personas y designamos por X el nmero de fumadores en
la muestra,
a) cual es la probabilidad de que X>1?,
b) cual es la probabilidad de que X>10?,

X ~Bi(0,2 , 40);

a)

40
40
0,840
0,210,839 0,9985
0
1

P( X 1) 1 p(0) p(1) 1

b) X ~Bi(0,2 , 40)
Como np=400,2=8, y n(1-p)=400,8=32, ambos mayores que 5, podemos aplicar
la aproximacin y suponer que X aproximadamente es
N np, np(1 p) N 8, 2,53 . Ahora podemos obtener las probabilidades
como si de una distribucin normal se tratara:
10 8
P(X 20) 1 P(X 20) 1
1 0,79 1 0.785 0,214
2,53

You might also like