You are on page 1of 25

INSTITUTO TECNOLÓGICO

SUPERIOR DE TEPOSCOLULA

INGENIERÍA EN SISTEMAS COMPUTACIONALES

PROBABILIDAD Y ESTADISTICA

TEMAS:

2.8 Variables aleatorias conjuntas.


2.9 Modelos analíticos de fenómenos aleatorios discretos.
2.10 Modelos analíticos de fenómenos aleatorios continuos.

DORIS LÁZARO CHÁVEZ

CATEDRÁTICO: ING. IVAN ESPINOSA LÓPEZ

SAN PEDRO Y SAN PABLO TEPOSCOLULA, A 14 DE MARZO DE 2011.


ÍNDICE
INTRODUCCIÓN----------------------------------------------------------------------- 3
2.8 Variables aleatorias conjuntas. --------------------------------------------------------- 4
Distribuciones De Probabilidad Conjunta --------------------------------------- 4
Distribuciones marginales de probabilidad -------------------------------------- 5
Distribuciones condicionales de probabilidad ---------------------------------- 6
Media y varianza para variables aleatorias conjuntas------------------------ 7
Covarianza ------------------------------------------------------------------------------- 8

2.9 Modelos analíticos de fenómenos aleatorios discretos. ------------------------- 10


2.9.1 Funciones de Probabilidad (Discreto). --------------------------------------- 10
2.9.1.1 Definición de variables aleatoria discreta. --------------------- 10
2.9.2 Función de probabilidad y de distribución, valor esperado, varianza y
desviación estándar. --------------------------------------------------------------------------- 11
Función de probabilidad -------------------------------------------------------------- 11
Distribución de probabilidad --------------------------------------------------------- 11
Definición de función de distribución---------------------------------------------- 12
Esperanza matemática --------------------------------------------------------------- 12
Desviación estándar de una variable aleatoria discreta --------------------- 14
2.9.3 Distribuciones y otros (Discreto). ---------------------- 15
Distribución Binomial. --------------------------------- 15
Distribución hipergeométrica. ---------------------------------------- 16
Aproximación de la hipergeométrica por la binomial. ---------- 17
Distribución geométrica ------------------------------------------------ 18
Distribución poisson ---------------------------------------------------- 18
2.10 Modelos analíticos de fenómenos aleatorios continuos. ---------------------- 20
Definición de variables aleatorias continuas. -------------------------------- 20
Función de distribución ------------------------------------------------------ 21
Distribuciones y otros (Continuos). --------------------------- 22
Distribución Uniforme y Exponencial --------------------- 22
Distribución normal. ---------------------------------------------------------- 22

CONCLUSION ----------------------------------------------------------------------------------- 24

BIBLIOGRAFIA ---------------------------------------------------------------------------------- 25

2
INTRODUCCIÓN

En la vida cotidiana sin darnos cuenta nos enfrentamos a situaciones en las cuales
existen sucesos difíciles de cuantificar, es en este caso cuando hacemos uso de
las Técnicas de Conteo, sin embargo, en los temas vistos anteriormente durante el
curso hemos visto técnicas que no son muy complejas, pero a como avanza el
curso se muestran técnicas cada vez más complicadas es por eso que para
entender un poco mejor en qué consisten estas técnicas se realizó la siguiente
investigación.

Primero que nada queda claro que en esta unidad hemos trabajado utilizando
términos como lo que son las variables y estas se pueden entender como términos
que no tienen bien definido su valor, es decir, puede tomar diferentes valores
dependiendo de la situación en la que nos encontremos.

Algunos experimentos estadísticos pueden incluir más de una variable aleatoria


las cuales actúan en forma conjunta, y es de interés determinar la probabilidad
correspondiente a los diferentes valores que estas variables puedan tomar, debido
a que el que suceda una u otra afectará directamente la ocurrencia del siguiente.

En esta sección revisamos las distribuciones de probabilidad para dos variables


aleatorias que intervienen en forma conjunta, así como también se hace mención
de modelos analíticos de Fenómenos Aleatorios Continuos y Discretos.

Se abordaran los 3 últimos temas de la segunda unidad de la asignatura de


Probabilidad y Estadística:

2.8 Variables aleatorias conjuntas.


2.9 Modelos analíticos de fenómenos aleatorios discretos.
2.10 Modelos analíticos de fenómenos aleatorios continuos.

A lo largo de cada uno de estos temas se hará mención de las diferentes medidas
de tendencia central, así como sus propiedades, características y lo principal cada
una de sus formulas .

3
2.8 Variables aleatorias conjuntas.
DISTRIBUCIONES DE PROBABILIDAD CONJUNTA
Caso discreto

Definición
Sean X, Y: variables aleatorias discretas. Entonces su función de distribución de
probabilidad conjunta es f(x,y)
Esta función satisface las siguientes propiedades

1) xy (f(x,y)0)
2)  f ( x, y)  1
x y

3) P(X=x,Y=y) = f(x,y)
También se puede definir la distribución de probabilidad acumulada conjunta:

F(x,y) = P(Xx,Yy) =  f (s, t ) , -x,y


s x t  y
.

Caso continuo

Definición
Sean X, Y: dos variables aleatorias continuas, entonces su función de densidad conjunta
es f(x,y)
Esta función satisface las siguientes propiedades
1) f(x,y)0, x, y
 
2)   f (x, y)dxdy  1
 
d b
3) P(aXb, cYd) =   f (x, y)dxdy
c a
La función de densidad de probabilidad de dos variables aleatorias continuas
X, Y, es una superficie en el espacio.

La probabilidad P(aXb, cYd) es entonces una porción del volumen debajo de la


superficie y sobre el rectángulo aXb, cYd

La función de distribución conjunta acumulada es:


y x

P(Xx, Yy) = F(x,y) =   f (u, v)dudv


  
.

4
DISTRIBUCIONES MARGINALES DE PROBABILIDAD
Estas definiciones corresponden a funciones de probabilidad de cada variable.

Definición

Caso discreto (dos variables)

Sean X,Y variables aleatorias discretas y f(x,y) su función de probabilidad conjunta.


Entonces, las funciones de probabilidad

g(x)=P(X=x)=  f ( x , y)
y

h(y)=P(Y=y)=  f ( x , y)
x

Se denominan funciones marginales de probabilidad .

Caso continuo (dos variables)

Sean X,Y variables aleatorias continuas y f(x,y) su función de densidad de probabilidad


conjunta.

Entonces, las funciones de densidad de probabilidad


g(x)=  f (x, y)dy



h(y)=  f (x, y)dx


Se denominan funciones marginales de densidad de probabilidad .

Para cada variable la distribución marginal se obtiene sumando la función de probabilidad


sobre la otra variable.

5
DISTRIBUCIONES CONDICIONALES DE PROBABILIDAD
Recordemos la fórmula de probabilidad condicional para eventos
P(A|B) = P(AB)/P(B)
Si definimos los eventos
A: X=x
B: Y=y
Siendo X, Y variables aleatorias discretas con distribución de probabilidad conjunta f(x,y),
entonces,
P( X  x, Y  y)
P(X=x|Y=y) =
P( Y  y)
Que se puede expresar con la notación establecida para las distribuciones conjuntas:
f ( x , y)
f(x|y) =
h( y)
f(x|y) también satisface las propiedades de las funciones de probabilidad

Definición
Sean X, Y variables aleatorias discretas con distribución de probabilidad f(x,y)
Entonces, la distribución condicional de X dado que Y=y, es
f ( x , y)
f(x|y) =
h( y)
Y la distribución condicional de Y dado que X=x, es
f ( x , y)
f(y|x) = .
g(x )

Definición
Sean X, Y variables aleatorias continuas con densidad de probabilidad f(x,y)
Entonces, la densidad condicional de X dado que Y=y, es
f ( x , y)
f(x|y) =
h( y)
Y la densidad condicional de Y dado que X=x, es
f ( x , y)
f(y|x) = .
g( x )

Las distribuciones condicionales también se pueden usar para calcular probabilidad:


b
Caso discreto: P(aXb|Y=y) =  f ( x | y)
xa
b
Caso continuo: P(aXb|Y=y) =  f (x | y)dx
a

Sustituyendo en la densidad condicional inicial se obtiene f(x,y) = g(x) h(y)

6
Definición

Se dice que X, Y son variables aleatorias continuas estadísticamente independientes si y


solo si f(x,y) = g(x) h(y), en el dominio de x, y .

Esta definición se puede extender a más variables aleatorias continuas.

En el caso de variables aleatorias discretas, para que esta definición sea cierta, debe
cumplirse que en cada punto, el producto de las distribuciones marginales sea igual a la
distribución conjunta .

MEDIA Y VARIANZA PARA VARIABLES ALEATORIAS CONJUNTAS


Sean X, Y variables aleatorias con distribución de probabilidad conjunta f(x,y)
Sea G(X,Y), alguna expresión con X,Y. Por lo tanto G también es una variable aleatoria.

Definición
Si X, Y son variables aleatorias discretas . La media o valor esperado de G(X,Y), es
G( X , Y )  EG( X, Y)   G( x, y)f ( x, y)
X Y

Si X, Y son variables aleatorias continuas. La media o valor esperado de G(X,Y), es


 
 G( X , Y )  EG( X, Y )    G(x, y)dxdy .
 
.
CASO ESPECIAL

Si G(X,Y) = X
 X  EX   xf(x, y)   x f (x, y)   xg(x )
X Y x y x
Si G(X,Y) = Y
 Y  EY   yf ( x, y)   y f ( x, y)   yh( y) .
X Y y x y

en donde g(x), h(y) son las distribuciones marginales

Igualmente para el caso continuo:

Si G(X,Y) = X

 X  EX    xg(x)dx

Si G(X,Y) = Y

 Y  EY    yh( y)dy .


en donde g(x), h(y) son las densidades marginales

7
COVARIANZA
La definición de varianza se extiende a variables aleatorias conjuntas y se denomina
covarianza

Definición
Sean X, Y variables aleatorias discretas con distribución conjunta f(x,y)
Entonces, la covarianza de X, Y es

 XY  Cov X, Y  E( X   X )(Y   Y )   ( x   X )( y   Y )f ( x, y)


x y

Sean X, Y variables aleatorias continuas con densidad conjunta f(x,y)


Entonces, la covarianza de X, Y es
 
 XY  Cov X, Y  E( X   X )(Y   Y )    (x   X )( y   Y )f (x, y)dxdy
 

Igualmente, se puede obtener una fórmula alterna para calcular la covarianza:

 XY  Cov X, Y  EXY  X  Y .

Demostración
Cov[X,Y] = E[(X-X)(Y-Y)] = E[XY - XY - YX + XY]
= E[XY] - YE[X] - XE[Y] + XY
= E[XY] - YX - XY + XY
= E[XY] - XY

Propiedades de la covarianza
Si X, Y son variables aleatorias estadísticamente independientes,
entonces Cov[X,Y] = 0 .

Signos de la covarianza

La covarianza tiene signo positivo si valores grandes de X están asociados con valores
grandes de Y, o si valores pequeños de X están asociados con valores pequeños de Y.

La covarianza tiene signo negativo si valores grandes de la una variable están asociados
con valores pequeños de la otra variable.

Este comportamiento se puede observar en la definición de covarianza:

Cov X, Y  E(X   X )(Y   Y )   (x   X )( y   Y )f (x, y)


x y

Si los valores de X, Y son ambos grandes o ambos pequeños, el producto de sus


diferencias con respecto a sus medias tendrá signo positivo, y la suma de estos términos
tendrá signo positivo. También es cierto con variables continuas

8
Definición
Sean X, Y variables aleatorias conjuntas (discretas o continuas)
entonces, el coeficiente de correlación de X, Y es:

Cov X, Y   XY
 XY   ,  1  XY  1 .
 X Y  X Y

El símbolo  del alfabeto griego se lee “ro” y es una medida estandarizada de la


covarianza.

Esta definición puede extenderse a más variables aleatorias conjuntas

9
2.9 Modelos analíticos de fenómenos aleatorios discretos.
2.9.1 Funciones de Probabilidad (Discreto).
Toda distribución de probabilidad es generada por una variable aleatoria x, la que
puede ser de dos tipos (discreto y continuo), en este caso únicamente vamos a ver la
discreta:

2.9.1.1 Definición de variables aleatoria discreta.


Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes
valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo
puede tomar valores enteros y un número finito de ellos.

Ejemplos:

x Variable que nos define el número de burbujas por envase de vidrio que son
generadas en un proceso dado.
x0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase
xVariable que nos define el número de productos defectuosos en un lote de 25
productos.
x0, 1, 2, 3,....,25 productos defectuosos en el lote
xVariable que nos define el número de alumnos aprobados en la materia de
probabilidad en un grupo de 40 alumnos.
x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad

Con los ejemplos anteriores nos damos cuenta claramente que los valores de la
variable x siempre serán enteros, nunca fraccionarios.

10
2.9.1.2 Función de probabilidad y de distribución, valor
esperado, varianza y desviación estándar.

Función de probabilidad

En teoría de la probabilidad, una función de probabilidad (también denominada


función de masa de probabilidad) es una función que asocia a cada punto de su
espacio muestral X la probabilidad de que ésta lo asuma.

En concreto, si el espacio muestral, E de la variable aleatoria X consta de los


puntos x1, x2, ..., xk, la función de probabilidad P asociada a X es

donde pi es la probabilidad del suceso X = xi.

Por definición de probabilidad,

Hay que advertir que el concepto de función de probabilidad sólo tiene sentido
para variables aleatorias que toman un conjunto discreto de valores. Para
variables aleatorias continuas el concepto análogo es el de función de densidad.

Distribución de probabilidad

En teoría de la probabilidad y estadística, la distribución de probabilidad de una


variable aleatoria es una función que asigna a cada suceso definido sobre la
variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de
probabilidad está definida sobre el conjunto de todos los eventos rango de valores
de la variable aleatoria.

Cuando la variable aleatoria toma valores en el conjunto de los números reales, la


distribución de probabilidad está completamente especificada por la función de
distribución, cuyo valor en cada real x es la probabilidad de que la variable
aleatoria sea menor o igual que x.

11
Definición de función de distribución
Dada una variable aleatoria todos son puntos , su función de distribución, ,
es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice y


se escribe, simplemente, .

Propiedades
Como consecuencia casi inmediata de la definición, la función de distribución:
 Es una función continua por la derecha.
 Es una función monótona no decreciente.
Además, cumple

Para dos números reales cualesquiera a y b tal que (a < b), los sucesos
y son mutuamente excluyentes y su unión es el suceso
, por lo que tenemos entonces que:

y finalmente

Por lo tanto una vez conocida la función de distribución F(x) para todos los valores
de la variable aleatoria x conoceremos completamente la distribución de
probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y
sin embargo para ver una representación gráfica de la probabilidad es más
práctico el uso de la función de densidad.

Esperanza matemática
En estadística la esperanza matemática (también llamada esperanza, valor
esperado, media poblacional o media) de una variable aleatoria X, es el número
que formaliza la idea de valor medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la


probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado
de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene
constante y el experimento se repite un elevado número de veces. Cabe decir que
el valor que toma la esperanza matemática en algunos casos puede no ser

12
"esperado" en el sentido más general de la palabra - el valor de la esperanza
puede ser improbable o incluso imposible.

Definición

Para una variable aleatoria discreta con valores posibles y sus


probabilidades representadas por la función de probabilidad p(xi) la esperanza se
calcula como:

Para una variable aleatoria continua la esperanza se calcula mediante la integral


de todos los valores y la función de densidad :

La definición general de esperanza se basa, como toda la teoría de la


probabilidad, en el marco de la teoría de la medida y se define como la siguiente
integral:

La esperanza también se suele simbolizar con

Las esperanzas para se llaman momentos de orden . Más


importantes son los momentos centrados .

No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la


distribución de Cauchy no lo tiene.

Propiedades

La esperanza es un operador lineal, ya que:

13
Combinando estas propiedades, podemos ver que -

donde e son variables aleatorias y y y son tres constantes cualesquiera.

La varianza de una variable aleatoria discreta se define como el promedio


ponderado de los cuadros de las diferencias entre cada resultado posible y su
media.

Esta medida se puede obtener multiplicando el cuadrado de cada diferencia


posible. por su probabilidad correspondiente y luego sumando los productos
obtenidos.

DESVIACIÓN ESTANDAR DE UNA VARIABLE ALEATORIA DISCRETA

Se dice que un modelo es la representación en miniatura de algunos fenómenos


relevantes. En particular, un modelo matemático es una expresión matemática que
representa algún fenómeno relevante. Para variables aleatorias discretas, esta
expresión matemática se conoce como función de distribución de probabilidad.

14
2.9.2 Distribuciones y otros (Discreto).
2.9.2.1 Distribución Binomial.

Supongamos que un experimento aleatorio tiene las siguientes características:

 En cada prueba del experimento sólo son posibles dos resultados: el suceso A
(éxito) y su contrario (fracaso).
 El resultado obtenido en cada prueba es independiente de los resultados
obtenidos anteriormente.
 La probabilidad del suceso A es constante, la representamos por p, y no varía de
una prueba a otra. La probabilidad es 1- p y la representamos por q .
 El experimento consta de un número n de pruebas.

Todo experimento que tenga estas características diremos que sigue el modelo de
la distribución Binomial. A la variable X que expresa el número de éxitos
obtenidos en cada prueba del experimento, la llamaremos variable aleatoria
binomial.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay
que considerar todas las maneras posibles de obtener k-éxitos y (n-k) fracasos
debemos calcular éstas por combinaciones (número combinatorio n sobre k).

La distribución Binomial se suele representar por B(n,p) siendo n y p los


parámetros de dicha distribución.

Función de Probabilidad de la v.a. Binomial

Función de probabilidad de la distribución Binomial o también denominada función


de la distribución de Bernoulli (para n=1). Verificándose:

Como el cálculo de estas probabilidades puede resultar algo tedioso se han


construido tablas para algunos valores de n y p que nos facilitan el trabajo.

15
Parámetros de la Distribución Binomial

Función de Distribución de la v.a. Binomial

siendo k el mayor número entero menor o igual a xi.

Esta función de distribución proporciona, para cada número real xi, la probabilidad
de que la variable X tome valores menores o iguales que xi.
han
construido tablas para algunos valores de n y p que nos facilitan el trabajo.
Sea X una variable aleatoria discreta correspondiente a una distribución binomial.

DISTRIBUCIÓN HIPERGEOMÉTRICA.
Los experimentos que tienen este tipo de distribución tienen las siguientes
características:
a) Al realizar un experimento con este tipo de distribución, se esperan
dos tipos de resultados.
b) Las probabilidades asociadas a cada uno de los resultados no son
constantes.
c) Cada ensayo o repetición del experimento no es independiente de
los demás.
d) El número de repeticiones del experimento (n) es constante.

C x * N a Cn x
p( x ,n )  a

N Cn

16
APROXIMACIÓN DE LA HIPERGEOMÉTRICA POR LA BINOMIAL.

Diremos en general que una v.a. X sigue una distribución hipergeométrica de parámetros, N, n y p,

lo que representamos del modo , si su función de probabilidad es

Observación

Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a aproximarse
a la binomial:

El valor esperado de la hipergeométrica es el mismo que el de la binomial,

sin embargo su varianza

no es exactamente la de la binomial, pues está corregida por un factor, , que tiende a 1


cuando . A este factor se le denomina factor de corrección para población finita.

17
DISTRIBUCIÓN GEOMETRICA

Esta distribución indica exactamente el número de repeticiones del experimento


hasta lograr la característica de interés.

Se genera la simulación de variables aleatorias tipo Geométrica a partir del


método de la transformada inversa.

DISTRIBUCIÓN POISSON

Sirve para trabajar en teoría de colas.

Para simular una distribución Poisson se deben usar sus propiedades estadísticas.

18
APROXIMACIÓN DE LA BINOMIAL POR LA DE POISSON.

APROXIMACIÓN DE POISSON A LA BINOMIAL.

En este caso se determinarán probabilidades de experimentos Binomiales, pero


que dadas sus características, es posible aproximarlas con la distribución de
Poisson, estas características son, n  ( n es muy grande) y p0 (p es muy
pequeña), por lo que:

  
x
n x
p( x ,n , p ) n Cx p q
x

x!

La expresión anterior solo se cumple cuando n  y p0, solo en este caso,


si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la
fórmula a utilizar en este caso sería:

x  
p( x , ) 
x!

Donde:

 == np = número esperado de éxitos = tasa promedio de éxitos

n = número de repeticiones del experimento

p = probabilidad de éxito = p(éxito)

Una regla general aceptable es emplear esta aproximación si n20 y p0.05: sí n100,
la aproximación es generalmente excelente siempre y cuando np10.

19
2.10 Modelos analíticos de fenómenos aleatorios continuos.

Definición de variables aleatorias continuas.


Variable aleatoria continua (x). Se le denomina variable porque puede tomar
diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y
continua porque puede tomar tanto valores enteros como fraccionarios y un
número infinito de ellos.

Ejemplos:

xVariable que nos define el diámetro de un engrane en pulgadas


x5.0”, 4.99, 4.98, 5.0, 5.01, 5.0, 4.96
xVariable que nos define la longitud de un cable o circuito utilizado en un arnés
de auto
x20.5 cm, 20.1, 20.0, 19.8, 20,6, 20.0, 20.0
xVariable que nos define la concentración en gramos de plata de algunas
muestras de mineral
x14.8gramos, 12.0, 10.0, 42.3, 15.0, 18.4, 19.0, 21.0, 20.8

Función de densidad
Una función y=f(x) es una función de densidad de una variable aleatoria continua
si cumple las siguientes condiciones :

20
FUNCIÓN DE DISTRIBUCIÓN

En general, la función de distribución de una variable aleatoria continua X es el


modelo teórico de la curva de frecuencias acumuladas que se espera obtener para
X, y debe cumplir, evidentemente, estas propiedades:

 Ser creciente
 Tomar valores de 0 a 1

Es decir, la función de distribución F(x) es una primitiva de la función de densidad


f(x), o dicho de otra forma, la función de densidad es la derivada de la función de
distribución.

Indica la probabilidad de que la variable aleatoria continua X sea menor o igual


que un valor dado, es decir, proporciona la probabilidad acumulada hasta un
determinado valor de la variable.

21
4.2. Distribuciones y otros (Continuos).
4.2.1. Distribución Uniforme y Exponencial.

La distribución uniforme

Las distribuciones uniformes corresponden al experimento de elegir dos puntos al


azar entre dos fijos m y n. Como la probabilidad de elegir cualquier punto es la
misma, la función de densidad tendrá la misma altura en todos los puntos entre m
y n, es decir se trata de una función constante desde m a n, de altura 1/(m-n).

La distribución exponencial

Las distribuciones exponenciales se utilizan como modelo para representar


tiempos de funcionamiento o tiempos de espera. Su función de densidad que
depende de un parámetro k es de la forma f(x)=ke-kx

 La media de esta distribución es 1/k y la desviación típica también es 1/k

DISTRIBUCIÓN NORMAL.

Características:

a) Es generada por una variable de tipo continuo, denominada x;


- x  

b) La función que nos define esta distribución es:

1
f ( x ,  , 2 )   ( x   ) / 2
2 2
- x  
 2

Al dar a la función los valores de  , 2 y valores a x, obtendremos la distribución en


cuestión, la que tiene forma de campana, por lo que también se le conoce como campana
de Gauss. Hay un número infinito de funciones de densidad Normal, una para cada
combinación de  y . La media  mide la ubicación de la distribución y la desviación
estándar  mide su dispersión.

c) Es simétrica con respecto a su eje vertical.

22
d) Es asintótica con respecto a su eje horizontal; esto quiere decir que jamás va a tocar el
eje de las equis.

e) El área total bajo la curva es 1.

f) Sí sumamos a   , se observará que aproximadamente el 68.26% de los datos


se encuentran bajo la curva, si sumamos a   2, el 95.44% de los datos estará entre
esos límites y si sumamos a   3, entonces el 99.74% de los datos caerá dentro de
esos límites. Esta característica es a la vez una forma empírica y rápida de demostrar si
los datos que se analizan tienen una distribución Normal; ya que para trabajar los datos
con esta distribución, debe verificarse que efectivamente así se distribuyen, ya que de no
hacerlo, las decisiones que en un momento dado se tomarán de un análisis de los datos
con la distribución Normal, serían erróneas.

¿Cómo se determinan probabilidades con la distribución Normal?

De acuerdo a como se trataron las distribuciones de probabilidad continuas en la unidad


III, lo más lógico es que la función f(x, , 2), se integre entre los límites de la variable x;
esto es,

b
p( a  x  b )   f ( x ,  , 2 )dx
a

La integral anterior nos daría el área bajo la curva de la función, desde a hasta b, que
corresponde o es igual a la probabilidad buscada.

Debido a la dificultad que se presenta para integrar esta función cada vez que sea
necesario, lo que se hace es tipificar el valor de la variable x, esto es, x se transforma en
un valor de z, de la siguiente manera:

x
z  valor

Este valor de z es buscado en una tabla donde vienen áreas asociadas a este valor, y
haciendo uso de los valores tabulados, se determina la probabilidad requerida. La tabla
que es usada para calcular las probabilidades es la que nos dá el área.

23
CONCLUSION
Una vez terminada la investigación concluyo que en la probabilidad existen
diferentes términos que ahora ya han quedado bien definidos como los son las
medidas de tendencia central eéste tipo de medidas con ciertas tendencias
centrales o dispersas son muy importantes y tienen una gran aplicación en la
solución de problemas en el área de estudio a partir de datos agrupados o datos
no agrupados para poder entender mejor el comportamiento de algunas variables
que para algunas empresas representa tiempo, esfuerzo o costos y que se pueden
optimizar mediante la aplicación de este tipo de cálculos estadísticos y que se
pueden representar de una manera fácil y entendible mediante de gráficos e
histogramas con la información necesaria para el interesado ayudándolo a un
mejor entendimiento y comprensión del problema en cuestión.

Así también se hizo mención de algunos teoremas éstos son aplicables para
resolver diferentes tipos de problemas tomando en cuenta cierto tipo de
limitaciones o característicos del problema que una vez entendiendo el tema se
pueden aplicar estas características que son de suma importancia para resolver
diversos problemas en el área de estudio partiendo de datos reales encontrando
soluciones reales. Con la finalidad de minimizar costos, esfuerzos y tiempos y
optimizar adecuadamente ciertos procesos logrando una mayor productividad para
la empresa.

En la mayoría de las veces para hacer uso de los métodos mencionados


anteriormente se necesita de datos agrupados, que es para ellos donde se utilizan
las formulas de varianza, desviación estándar, entre otras.

24
BIBLIOGRAFIA
www.ocw.espol.edu.ec/instituto-de-ciencias-matematicas/estadistica/
http://www.itescam.edu.mx/principal/sylabus/rptSylabus.php?tipo=PDF&id_asignatura=25
6&clave_asignatura=INB-0402&carrera=IIND0405001
http://centros.edu.xunta.es/iesaslagoas/metodosesta/0documentos/T01_1_EstadisticaDes
criptiva.pdf
http://thales.cica.es/rd/Recursos/rd97/UnidadesDidacticas/53-1-u-punt11.html
http://es.wikipedia.org/wiki/Funci%C3%B3n_de_probabilidad
http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad
http://www.itch.edu.mx/academic/industrial/sabaticorita/_private/04Distr%20Hipergeometri
ca%20Gral.htm
http://www.itch.edu.mx/academic/industrial/sabaticorita/index.html
http://es.wikipedia.org/wiki/Esperanza_matem%C3%A1tica
http://www.itch.edu.mx/academic/industrial/sabaticorita/index.html
http://personal5.iddeo.es/ztt/Tem/t19_distribucion_binomial.htm
http://www.virtual.unal.edu.co/cursos/sedes/manizales/4060015/Lecciones/Capitulo%20VI/
distribuciones1.htm

Luna, Rita. Curso: PROBABILIDAD Y ESTADÍSTICA-DISTRIBUCIÓN


HIPERGEOMÉTRICA. Instituto Tecnológico de Chihuahua. México 2005. pp. 5.

Cetina López Wendy. APROXIMACIÓN DE LA HIPERGEOMÉTRICA POR LA


BINOMIAL. México. 2005. pp. 3.

25

You might also like