You are on page 1of 51

Informe de Estadistica 4:

Conceptos clave:

Distribucin marginal
Dentro de la teora de probabilidades, dadas dos variables aleatorias juntas X&Y,
la distribucin marginal de X es simplemente la ley de probabilidad de X haciendo caso
omiso de la informacin referente a Y. Este tipo de clculo se produce cuando se considera el
estudio de una tabla de contingencia.1
Para las variables aleatorias discretas, la ley de probabilidad marginal Pr(X=x) se escribe

Pr(X=x,Y=y) es la distribucin conjunta de X&Y, mientras que Pr(X =x| Y=y) es la


distribucin condicional de Xconociendo Y. sta es la leccin principal del Teorema de la
probabilidad total.
Del mismo modo, para variables aleatorias continuas, la densidad de
probabilidad marginal 'pX (x) verifica

donde
da la distribucin conjunta de X&Y, y
condicional de X conociendo Y.

la distribucin

Referencias[editar]
1.

Volver arriba Trumpler and Weaver (1962), pp. 3233.

Bibliografa[editar]

Everitt, B. S. (2002). The Cambridge Dictionary of Statistics. Cambridge University


Press. ISBN 0-521-81099-X.

Trumpler, Robert J. and Harold F. Weaver (1962). Statistical Astronomy. Dover


Publications.

Enlaces externos[editar]

Obtencin distribucin marginal a partir de distribucin conjunta de una variable


bidimensional discreta con R-Project
Categora:
Teora de probabilidades

Teora de la probabilidad

(Redirigido desde Teora de probabilidades)

La teora de la probabilidad es la parte de las matemticas que estudia los fenmenos


aleatorios estocsticos. Estos deben contraponerse a los fenmenos determinsticos, los
cuales son resultados nicos y/o previsibles de experimentos realizados bajo las mismas
condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius anivel del
mar se obtendr vapor. Los fenmenos aleatorios, por el contrario, son aquellos que se
obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones
determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el
lanzamiento de un dado o de una moneda. La teora de probabilidades se ocupa de asignar
un cierto nmero a cada posible resultado que pueda ocurrir en un experimento aleatorio, con
el fin de cuantificar dichos resultados y saber si un suceso es ms probable que otro.
Muchos fenmenos naturales son aleatorios, pero existen algunos como el lanzamiento de un
dado, donde el fenmeno no se repite en las mismas condiciones, debido a que la
caractersticas del material hace que no exista una simetra del mismo, as las repeticiones no
garantizan una probabilidad definida. En los procesos reales que se modelizan
mediante distribuciones de probabilidad corresponden a modelos complejos donde no se
conocen a priori todos los parmetros que intervienen; sta es una de las razones por las
cuales la estadstica, que busca determinar estos parmetros, no se reduce inmediatamente a
la teora de la probabilidad en s.
En 1933, el matemtico sovitico Andri Kolmogrov propuso un sistema de axiomas para la
teora de la probabilidad, basado en la teora de conjuntos y en la teora de la medida,
desarrollada pocos aos antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximacin axiomtica que generaliza el marco clsico de la probabilidad, la cual
obedece a la regla de clculo de casos favorables sobre casos posibles, permiti la
rigorizacin de muchos argumentos ya utilizados, as como el estudio de problemas fuera de
los marcos clsicos. Actualmente, la teora de la probabilidad encuentra aplicacin en las ms
variadas ramas del conocimiento, como puede ser la fsica (donde corresponde mencionar el
desarrollo de las difusiones y el movimiento Browniano), o la economa(donde destaca el
modelo de Black y Scholes para la valuacin de acciones).
ndice
[ocultar]

1 Definicin de probabilidad
o

1.1 Historia

1.2 Definicin clsica de probabilidad

1.3 Definicin axiomtica

2 Variables aleatorias
o

2.1 Probabilidad discreta

2.2 Probabilidad continua

2.3 Funcin de distribucin de probabilidad

2.4 Funcin de densidad de probabilidad

3 Teora de la probabilidad

4 Vase tambin

5 Bibliografa

6 Enlaces externos

Definicin de probabilidad[editar]
Historia[editar]
La teora de la probabilidad se desarroll originalmente a partir de ciertos problemas
planteados en el contexto de juegos de azar. Inicialmente, no exista una teora axiomtica
bien definida y las definiciones iniciales de probabilidad se basaron en la idea intuitiva de un
cociente de ocurrencias:

(1)
donde A es un suceso cualquiera y:
es el nmero de veces que se ha repetido una accin u observacin cuyo resultado puede
dar el suceso A o no-A.
es el nmero de veces que observa A en todas las observaciones.
Este tipo de definiciones si bien permitieron desarrollar un gran nmero de propiedades, no
permitan deducir todos los teoremas y resultados importantes que hoy forman parte de la
teora de la probabilidad. De hecho el resultado anterior se puede demostrar rigurosamente
dentro del enfoque axiomtico de la teora de la probabilidad, bajo ciertas condiciones.
La primera axiomatizacin completa se debi a Andrei Kolmogorov (quien us dicho enfoque
por ejemplo para deducir su "ley 0-1 para sucesos cola" y otros resultados relacionados con la
convergencia de sucesiones aleatorias). La definicin axiomtica de la probabilidad se basa
en resultados de la teora de la medida y en formalizaciones de la idea de independencia
probabilstica. En este enfoque se parte de un espacio de medida normalizada
donde
es un conjunto llamado espacio de sucesos (segn el tipo de problema puede ser un
conjunto finito, numerable o no-numerable),

es una -lgebra de subconjuntos

de
y
es una medida normalizada (es decir,
posibles se consideran como subconjuntos S de eventos elementales

). Los sucesos

posibles:
de dicho conjunto:

y la probabilidad de que cada suceso viene dada por la medida

,
La interpretacin de esta probabilidad es la frecuencia promedio con la que aparece dicho
suceso si se considera una eleccin de muestras aleatorias sobre .
La definicin anterior es complicada de representar matemticamente ya que
debiera ser
infinito. Otra manera de definir la probabilidad es de forma axiomtica esto estableciendo las
relaciones o propiedades que existen entre los conceptos y operaciones que la componen.

Definicin clsica de probabilidad[editar]


La probabilidad es la caracterstica de un evento, que hace que existan razones para creer
que ste se realizar.
La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente
probables es igual a la razn entre el nmero de ocurrencias h de dicho evento (casos
favorables) y el nmero total de casos posibles n.

La probabilidad es un nmero (valor) que varia entre 0 y 1. Cuando el evento es imposible se


dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad
es 1.
La probabilidad de no ocurrencia de un evento est dada por q, donde:

Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no


ocurra, entonces p + q = 1
Simblicamente el espacio de resultados, que normalmente se denota por , es el espacio
que consiste en todos los resultados que son posibles. Los resultados, que se denota
por
, etctera, son elementos del espacio .

Definicin axiomtica[editar]
Artculo principal: Axiomas de probabilidad

Como se ha adelantado anteriormente la defincin axiomtica de probabilidad es una


extensin de la teora de la medida, en la que se introducen la nocin de independencia
relativa. Este enfoque permite reproducir los resultados de la teora clsica de la probabilidad

adems de resultados nuevos referidos a la convergencia de variables aleatorias. Adems de


los procesos estocsticos, el clculo de Ito y las ecuaciones diferenciales estocsticas.
Dentro del enfoque axiomtico es posible demostrar que la ley dbil de los grandes
nmeros implica que se cumplir que:

Esto permite justificar rigurosamente la ecuacin (1) suponiendo que:

Donde se interpreta

con probabilidad p y que

con proabilidad 1-p.

Variables aleatorias[editar]
Una variable aleatoria es una funcin medible

que da un valor numrico a cada suceso elemental

Probabilidad discreta[editar]
Este tipo de probabilidad, es aquel que puede tomar slo ciertos valores diferentes que son el
resultado de la cuenta de alguna caracterstica de inters. Ms exactamente, un problema de
probabilidad discreta es un problema definido por un conjunto de variables aleatorias que slo
pueden tomar un conjunto finito o infinito numerable de valores diferentes:

donde:
designa el cardinal o "nmero de elmentos" de un conjunto.
, es el conjunto de todos los posibles valores
que toma la variable aleatoria.

Probabilidad continua[editar]
Un problema de probabilidad continua es uno en el que aparecen variables aleatorias capaces
de tomar valores en algn intervalo de nmeros reales (y por tanto asumir un conjunto no
numerable de valores), por lo que continuando con la notacin anterior:

Funcin de distribucin de probabilidad[editar]


Artculo principal: Distribucin de probabilidad

La distribucin de probabilidad se puede definir para cualquier variable aleatoria X, ya sea de


tipo continuo o discreto, mediante la siguiente relacin:

Para una variable aleatoria discreta esta funcin no es continua sin constante a tramos
(siendo continua por la derecha pero no por la izquierda). Para una variable aleatoria general
la funcin de distribucin puede descomponerse en una parte continua y una parte discreta:

Donde
tramos.

es una funcin absolutamente continua y

es una funcin constante a

Funcin de densidad de probabilidad[editar]


Artculo principal: Funcin de densidad

La funcin de densidad, o densidad de probabilidad de una variable aleatoria absolutamente


continua, es una funcin a partir de la cual se obtiene la probabilidad de cada valor que toma
la variable definida como:

Es decir, su integral en el caso de variables aleatorias continuas es la distribucin de


probabilidad. En el caso de variables aleatorias discretas la distribucin de probabilidad se
obtiene a travs del sumatorio de la funcin de densidad. La nocin puede generalizarse a
varias variables aleatorias.

Teora de la probabilidad[editar]
La teora de la probabilidad moderna incluye temas de las siguientes reas:

-lgebras, teora de la medida, medida producto y funciones medibles

Variables aleatorias y funciones de distribucin

Convergencia de funciones medibles y convergencia dbil.

Independencia probabilstica

Probabilidad condicionada

Martingalas y tiempos de parada

Leyes de los grandes nmeros

Funciones caractersticas

Teorema central del lmite y teorema del valor extremo

Procesos estocsticos

Vase tambin[editar]

Distribucin de probabilidad

Estadstica

Distribucin de probabilidad

La distribucin Normal suele conocerse como la "campana de Gauss".

En teora de la probabilidad y estadstica, la distribucin de probabilidad de una variable


aleatoria es una funcinque asigna a cada suceso definido sobre la variable aleatoria
la probabilidad de que dicho suceso ocurra. La distribucin de probabilidad est definida sobre
el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la
variable aleatoria.

La distribucin de probabilidad est completamente especificada por la funcin de distribucin,


cuyo valor en cada xreal es la probabilidad de que la variable aleatoria sea menor o igual
que x.
ndice
[ocultar]

1 Definicin de funcin de distribucin


o

2 Distribuciones de variable discreta


o

2.1 Tipos de distribuciones de variable discreta


3 Distribuciones de variable continua

1.1 Propiedades

3.1 Tipos de distribuciones de variable continua


4 Enlaces externos

Definicin de funcin de distribucin[editar]


Artculo principal: Funcin de distribucin

Dada una variable aleatoria

, su funcin de distribucin,

, es

Por simplicidad, cuando no hay lugar a confusin, suele omitirse el subndice


simplemente,
. Donde en la frmula anterior:

y se escribe,

, es la probabilidad definida sobre un espacio de probabilidad y una medida


unitaria sobre el espacio muestral.
es la medida sobre la -lgebra de conjuntos asociada al espacio de probabilidad.
es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre
el que se define el espacio de probabilidad en cuestin.
es la variable aleatoria en cuestin, es decir, una funcin definida sobre
el espacio muestral a los nmeros reales.

Propiedades[editar]
Como consecuencia casi inmediata de la definicin, la funcin de distribucin:

Es una funcin continua por la derecha.

Es una funcin montona no decreciente.

Adems, cumple

Para dos nmeros reales cualesquiera


sucesos

y su unin es el suceso

tal que

, los

son mutuamente excluyentes


, por lo que tenemos entonces que:

y finalmente

Por lo tanto una vez conocida la funcin de distribucin


para todos los valores de la
variable aleatoria conoceremos completamente la distribucin de probabilidad de la
variable.
Para realizar clculos es ms cmodo conocer la distribucin de probabilidad, y sin embargo
para ver una representacin grfica de la probabilidad es ms prctico el uso de la funcin de
densidad.

Distribuciones de variable discreta[editar]

Grfica de distribucin binomial.

Se denomina distribucin de variable discreta a aquella cuya funcin de probabilidad slo


toma valores positivos en un conjunto de valores de
finito o infinito numerable. A dicha
funcin se le llama funcin de masa de probabilidad. En este caso la distribucin de
probabilidad es la suma de la funcin de masa, por lo que tenemos entonces que:

Y, tal como corresponde a la definicin de distribucin de probabilidad, esta expresin


representa la suma de todas las probabilidades desde
hasta el valor .

Tipos de distribuciones de variable discreta [editar]


Definidas sobre un dominio finito

La distribucin de Bernoulli, que toma valores "1", con probabilidad p, o "0", con
probabilidad q = 1 p.

La distribucin de Rademacher, que toma valores "1" o "-1" con probabilidad 1/2 cada
uno.

La distribucin binomial, que describe el nmero de aciertos en una serie de n


experimentos independientes con posibles resultados "s" o "no" (ensayo de Bernoulli, todos
ellos con probabilidad de acierto p y probabilidad de fallo q = 1 p.

La distribucin de Poisson, que describe el nmero de eventos de en un cierto


intervalo de tiempo y que puede obtenerse como lmite de una distribucin binominal.

La distribucin beta-binomial, que describe el nmero de aciertos en una serie de n


experimentos independientes con posibles resultados "s" o "no", cada uno de ellos con una
probabilidad de acierto variable definida por una beta.

La distribucin degenerada en x0, en la que X toma el valor x0 con probabilidad 1. A


pesar de que no parece una variable aleatoria, la distribucin satisface todos los requisitos
para ser considerada como tal.

La distribucin uniforme discreta, en el que todos los resultados posibles forman de un


conjunto finito en el que todos son igualmente probables. Esta distribucin describe el
comportamiento aleatorio de una moneda, un dado o una ruleta de casino equilibrados (sin
sesgo).

La distribucin hipergeomtrica, que mide la probabilidad de obtener x (0 x d)


elementos de una determinada clase formada por d elementos pertenecientes a una poblacin
de N elementos, tomando una muestra de n elementos de la poblacin sin reemplazo.

distribucin hipergeomtrica no central de Fisher.

distribucin hipergeomtrica no central de Wallenius.

La ley de Benford, que describe la frecuencia del primer dgito de un conjunto de


nmeros en notacin decimal.
Definidas sobre un dominio infinito

La distribucin binomial negativa o distribucin de Pascal, que describe el nmero de


ensayos de Bernoulli independientes necesarios para conseguir n aciertos, dada una
probabilidad individual de xito p constante.

La distribucin geomtrica, que describe el nmero de intentos necesarios hasta


conseguir el primer acierto.

La distribucin beta-binomial negativa, que describe el nmero de experimentos del


tipo "si/no" necesarios para conseguir n aciertos, cuando la probabilidad de xito de cada uno
de los intentos est distribuida de acuerdo con una beta.

La distribucin binomial negativa extendida.


La distribucin de Boltzmann, importante en mecnica estadstica, que describe la
ocupacin de los niveles de energa discretos en un sistema en equilibrio trmico. Varios
casos especiales son:

La distribucin de Gibbs.

La distribucin de MaxwellBoltzmann.

La distribucin elptica asimtrica.

La distribucin fractal parabolica.

La distribucin hipergeomtrica extendida.

La distribucin logartmica.

La distribucin logartmica generalizada.

La distribucin de Poisson, que describe el nmero de eventos individuales que


ocurren en un periodo de tiempo. Existen diversas variantes como la Poisson desplazada, la
hiper-Poisson, la binomial de Poisson y la ConwayMaxwellPoisson entre otras.
La distribucin de Polya-Eggenberger.
La distribucin Skellam, que describe la diferencia de dos variables aleatorias
independientes con distribuciones de Poisson de distinto valor esperado.

La distribucin de YuleSimon.
La distribucin zeta, que utiliza la funcin zeta de Riemman para asignar una
probabilidad a cada nmero natural.

La ley de Zipf, que describe la frecuencia de utilizacin de las palabras de una lengua.

La ley de ZipfMandelbrot es una versin ms precisa de la anterior.

Distribuciones de variable continua[editar]

Distribucin normal.

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo. En el caso de variable continua la distribucin de
probabilidad es la integral de la funcin de densidad, por lo que tenemos entonces que:

Tipos de distribuciones de variable continua [editar]


Distribuciones definidas en un intervalo acotado

La distribucin arcoseno, definida en el intervalo [a,b].


La distribucin beta, definida en el intervalo [0, 1], que es til a la hora de estimar
probabilidades.
La distribucin del coseno alzado, sobre el intervalo [\mu-s,\mu+s].

La distribucin degenerada en x0, en la que X toma el valor x0 con probabilidad 1.


Puede ser considerada tanto una distribucin discreta como continua.

La distribucin de Irwin-Hall o distribucin de la suma uniforme, es la distribucin


correspondiente a la suma de n variables aleatorias i.i.d. ~ U(0, 1).

La distribucin de Kent, definida sobre la superficie de una esfera unitaria.


La distribucin de Kumaraswamy, tan verstil como la beta, pero con FDC y FDP ms
simples.

La distribucin logartmica continua.

La distribucin logit-normal en (0, 1).

La distribucin normal truncada, sobre el intervalo [a, b].

La distribucin reciproca, un tipo de distribucin inversa.

La distribucin triangular, definida en [a, b], de la cual un caso particular es la


distribucin de la suma de dos variables independientes uniformemente distribuidas (la
convolucin de dos distribuciones uniformes).

La distribucin uniforme continua definida en el intervalo cerrado [a, b], en el que la


densidad de probabilidad es constante.

La distribucin rectangular es el caso particular en el intervalo [-1/2, 1/2].

La distribucin U-cuadrtica, definida en [a, b], utilizada para modelar procesos


bimodales simtricos.

La distribucin von Mises, tambin llamada distribucin normal circular o distribucin


Tikhonov, definida sobre el crculo unitario.

La distribucin von Mises-Fisher, generalizacin de la anterior a una esfera Ndimensional.

La distribucin semicircular de Wigner, importante en el estudio de las matrices


aleatorias.
Definidas en un intervalo semi-infinito, usualmente [0,)

La distribucin beta prima.


La distribucin de BirnbaumSaunders, tambin llamada distribucin de resistencia a
la fatiga de materiales, utilizada para modelar tiempos de fallo.

La distribucin chi.

La distribucin chi no central.

La distribucin o distribucin de Pearson, que es la suma de cuadrados de n


variables aleatorias independientes gaussianas. Es un caso especial de la gamma, utilizada
en problemas de bondad de ajuste.

La distribucin chi-cuadrada inversa.

La distribucin chi-cuadrada inversa escalada.

La distribucin chi-cuadrada no central.

La distribucin de Dagum.

La distribucin exponencial, que describe el tiempo entre dos eventos consecutivos en


un proceso sin memoria.

La distribucin F, que es la razn entre dos variables \mathbf{\chi}^2_n y


\mathbf{\chi}^2_m independientes. Se utiliza para realizar anlisis de varianza por medio del
test F.

La distribucin F no central.

La distribucin de Frchet.

La distribucin gamma, que describe el tiempo necesario para que sucedan n


repeticiones de un evento en un proceso sin memoria.

La distribucin de Erlang, caso especial de la gamma con un parmetro k entero,


desarrollada para predecir tiempos de espera en sistemas de lneas de espera.

La distribucin gamma inversa.


La distribucin gamma-Gompertz, que se utiliza en modelos para estimar la esperanza
de vida.

La distribucin de Gompertz.

La distribucin de Gompertz desplazada.

La distribucin de Gumbel tipo-2.

La distribucin de Lvy.
Distribuciones en las que el logaritmo de una variable aleatoria est distribuido
conforme a una distribucin estndar:

La distribucin log-Cauchy.

La distribucin log-gamma.

La distribucin log-Laplace.

La distribucin log-logistic.

La distribucin log-normal.

La distribucin de MittagLeffler.

La distribucin de Nakagami.

Variantes de la distribucin normal o de Gauss:

La distribucin normal pleglada.

La distribucin semi normal.

La distribucin de Gauss inversa, tambin conocida como distribucin de Wald.

La distribucin de Pareto y la distribucin de Pareto generalizada.

La distribucin tipo III de Pearson.

La distribucin por fases bi-exponencial, comnmente usada en farmacocintica.

La distribucin por fases bi-Weibull.

La distribucin de Rayleigh.

La distribucin de mezcla de Rayleigh.

La distribucin de Rice.

La distribucin T de Hotelling.

La distribucin de Weibull o distribucin de Rosin-Rammler, para describir la


distribucin de tamaos de determinadas partculas.
La distribucin Z de Fisher.
Definidas en la recta real completa

La distribucin de BehrensFisher, que surge en el problema de BehrensFisher.

La distribucin de Cauchy, un ejemplo de distribucin que no tiene expectativa ni


varianza. En fsica se le llama funcin de Lorentz, y se asocia a varios procesos.

La distribucin de Chernoff.

La distribucin estable o distribucin asimtrica alfa-estable de Lvy, es una familia de


distribuciones usadas e multitud de campos. Las distribuciones normal, de Cauchy, de
Holtsmark, de Landau y de Lvy pertenecen a esta familia.

La distribucin estable geomtrica.

La distribucin de FisherTippett o distribucin del valor extremo generalizada.

La distribucin de Gumbel o log-Weibull, caso especial de la FisherTippett.

La distribucin de Gumbel tipo-1.

La distribucin de Holtsmark, ejemplo de una distribucin con expectativa finita pero


varianza infinita.

La distribucin hiperblica.

La distribucin secante hiperblica.

La distribucin SU de Johnson.

La distribucin de Landau.

La distribucin de Laplace.

La distribucin de Linnik.

La distribucin logstica, descrita por la funcin logstica.

La distribucin logstica generalizada.

La distribucin map-Airy.

La distribucin normal, tambin llamada distribucin gaussiana o campana de Gauss.


Est muy presente en multitud de fenmenos naturales debido al teorema del lmite central:
toda variable aleatoria que se pueda modelar como la suma de varias variables
independientes e idnticamente distribuidas con expectativa y varianza finita, es
aproximadamente normal.

La distribucin normal generalizada.

La distribucin normal asimtrica.

La distribucin gaussiana exponencialmente modificada, la convolucin de una normal


con una exponencial.
La distribucin normal-exponencial-gamma.

La distribucin gaussiana menos exponencial es la convolucin de una distribucin


normal con una distribucin exponencial (negativa).

La distribucin de Voigt, o perfil de Voigt, es la convolucin de una distribucin normal


y una Cauchy. Se utiliza principalmente en espectroscopa.

La distribucin tipo IV de Pearson.


La distribucin t de Student, til para estimar medias desconocidas de una poblacin
gaussiana.
La distribucin t no central.
Definidas en un dominio variable

La distribucin de FisherTippett o distribucin del valor extremo generalizada, puede


estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus
parmetros.

La distribucin de Pareto generalizada est definida en un dominio que puede estar


acotado inferiormente o acotado por ambos extremos.

La distribucin lambda de Tukey, puede estar definida en la recta real completa o en


un intervalo acotado, dependiendo de sus parmetros.

La distribucin de Wakeby.
Distribuciones mixtas discreta/continua

La distribucin gaussiana rectificada, es una distribucin normal en la que los valores


negativos son sustituidos por un valor discreto en cero.
Distribuciones multivariable

La distribucin de Dirichlet, generalizacin de la distribucin beta.

La frmula de muestreo de Ewens o distribucin multivariante de Ewens, es la


distribucin de probabilidad del conjunto de todas las particiones de un entero n, utilizada en el
anlisis gentico de poblaciones.

El modelo de BaldingNichols, utilizado en el anlisis gentico de poblaciones.

La distribucin multinomial, generalizacin de la distribucin binomial.

La distribucin normal multivariante, generalizacin de la distribucin normal.

La distribucin multinomial negativa, generalizacin de la distribucin binomial


negativa.

La distribucin log-gamma generalizada multivariante.


Distribuciones matriciales

La distribucin de Wishart.

La distribucin de Wishart inversa.

La distribucin normal matricial.

La distribucin t matricial.
Distribuciones no numricas

La distribucin categrica.
Distribuciones miscelneas

Distribucin de Cantor.

Distribuciones logsticas generalizadas.

Distribuciones de Pearson.

Distribucin de tipo fase.

Variable aleatoria
Formalmente, una variable aleatoria es una ecuacion, que designa eventos (p.e.f.g.f, posibles
de los resultados de tirar uno, dos o tres dados dado dos veces: (1, 49), (1, 41), evitar 2
numeros alreves etc.) a nmeros reales (p.e.f,g,f , su suma o resta o lo que haya
indefinidamente de las 2 partes o ninguna). Una variable aleatoria o variable estocstica es
una variable estadstica.
Los valores posibles de una variable aleatoria pueden ser posibles resultados en un
experimento realizado y los posibles valores y cualitisidades de una o varias cantidades
cocuyo valor actualmente o indiferente mente existente es incierto (p.e., como resultado de
medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como
una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de
probabilidad se usa para describir la probabilidad de que se den los diferentes valores.
Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores
aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para
englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso
estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o
tiempo).

ndice
[ocultar]

1 Definicin de variable aleatoria


o

1.1 Concepto intuitivo

1.2 Definicin formal

1.3 Rango de una variable aleatoria

2 Ejemplo

3 Caracterizacin de variables aleatorias


o

3.1 Tipos de variables aleatorias

3.2 Distribucin de probabilidad de una v.a.

3.3 Funcin de densidad de una v.a. continua

4 Funciones de variables aleatorias


o

4.1 Ejemplo
5 Parmetros de una v.a.

5.1 Esperanza

5.2 Varianza

6 Vase tambin

7 Referencias

8 Bibliografa

9 Enlaces externos

Definicin de variable aleatoria[editar]


Concepto intuitivo[editar]
Una variable aleatoria puede concebirse como un valor numrico que est afectado por el
azar. Dada una variable aleatoria no es posible conocer con certeza el valor que tomar esta
al ser medida o determinada, aunque s se conoce que existe una distribucin de
probabilidad asociada al conjunto de valores posibles. Por ejemplo, en una epidemia de

clera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe
cul de los dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de
que la persona enferme.
Para trabajar de manera slida con variables aleatorias en general es necesario considerar un
gran nmero de experimentos aleatorios, para su tratamiento estadstico, cuantificar los
resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del
experimento. De este modo se establece una relacin funcional entre elementos del espacio
muestral asociado al experimento y nmeros reales.

Definicin formal[editar]
Una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral, ,
asociado a un experimento aleatorio.1 2

La definicin formal anterior involucra conceptos matemticos sofisticados procedentes de


la teora de la medida, concretamente la nocin de espacio de probabilidad.3 4
Dado un espacio de probabilidad
una aplicacin
En la mayora de los de

es una variable aleatoria si es una aplicacin

-medible.

), quedando pues la definicin de esta manera:

Dado un espacio de probabilidad


cualquier funcin

y un espacio medible

una variable aleatoria real es

-medible donde

es la -lgebra boreliana.

Rango de una variable aleatoria[editar]


Se llama rango de una variable aleatoria X y lo denotaremos RX, a la imagen o rango de la
funcin , es decir, al conjunto de los valores reales que sta puede tomar, segn la
aplicacin X. Dicho de otro modo, el rango de una v.a. es el recorrido de la funcin por la que
sta queda definida:...

Ejemplo[editar]
Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de
resultados elementales posibles asociado al experimento, es
,
donde (c representa "sale cara" y x, "sale cruz").

Podemos asignar entonces a cada suceso elemental del experimento el nmero de caras
obtenidas. De este modo se definira la variable aleatoria X como la funcin

dada por

El recorrido o rango de esta funcin, RX, es el conjunto

Caracterizacin de variables aleatorias[editar]


Tipos de variables aleatorias[editar]
Para comprender de una manera ms amplia y rigurosa los tipos de variables, es necesario
conocer la definicin de conjunto discreto. Un conjunto es discreto si est formado por un
nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo
que haya un primer elemento, un segundo elemento, un tercer elemento, y as
sucesivamente.5

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto


discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en
lafuncin de cuanta. (Vanse las distribuciones de variable discreta).

Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto


numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable
abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna la estatura a
una persona extrada de una determinada poblacin es una variable continua ya que,
tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible. 6 (Vanse
las distribuciones de variable continua).

Distribucin de probabilidad de una v.a.[editar]


Artculo principal: Distribucin de probabilidad

La distribucin de probabilidad de una v.a. X, tambin llamada funcin de distribucin de


X es la funcin
, que asigna a cada evento definido sobre
por la siguiente expresin:

Y de manera que se cumplan las siguientes tres condiciones:

unaprobabilidad dada

1.

2.

Es continua por la derecha.

3.

Es montona no decreciente.
La distribucin de probabilidad de una v.a. describe tericamente la forma en que varan los
resultados de un experimento aleatorio. Intuitivamente se tratara de una lista de los
resultados posibles de un experimento con las probabilidades que se esperaran ver
asociadas con cada resultado.

Funcin de densidad de una v.a. continua[editar]


Artculo principal: Funcin de densidad de probabilidad

La funcin de densidad de probabilidad (FDP) o, simplemente, funcin de densidad,


representada comnmente como f(x), se utiliza con el propsito de conocer cmo se
distribuyen las probabilidades de un suceso o evento, en relacin al resultado del suceso.
La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la funcin
de distribucin de probabilidad F(x), o de manera inversa, la funcin de distribucin es
laintegral de la funcin de densidad:

La funcin de densidad de una v.a. determina la concentracin de probabilidad alrededor de


los valores de una variable aleatoria continua.

Funciones de variables aleatorias[editar]


Sea una variable aleatoria

sobre

y una funcin medible de Borel

entonces
ser tambin una variable aleatoria sobre , dado que la composicin
de funciones medibles tambin es medible a no ser que sea una funcin medible de
Lebesgue. El mismo procedimiento que permite ir de un espacio de probabilidad
a
puede ser utilizado para obtener la distribucin de
acumulada de
es

. La funcin de probabilidad

Si la funcin g es invertible, es decir g-1 existe, y es montona creciente, entonces la anterior


relacin puede ser extendida para obtener

y, trabajando de nuevo bajo las mismas hiptesis de invertibilidad de g y asumiendo adems


diferenciabilidad, podemos hallar la relacin entre las funciones de densidad de probabilidad al
diferenciar ambos trminos respecto de y, obteniendo

.
Si g no es invertible pero cada y tiene un nmero finito de races, entonces la relacin previa
con la funcin de densidad de probabilidad puede generalizarse como

donde xi = gi-1(y). Las frmulas de densidad no requieren que g sea creciente.

Ejemplo[editar]
Sea X una variable aleatoria real continua y sea Y = X2.

Si y < 0, entonces P(X2 = y) = 0, por lo tanto

Si y 0, entonces

por lo tanto

Parmetros de una v.a.[editar]


Artculo principal: Parmetro estadstico

La funcin de densidad o la distribucin de probabilidad de una v.a. contiene exhaustivamente


toda la informacin sobre la variable. Sin embargo resulta conveniente resumir sus
caractersticas principales con unos cuantos valores numricos. Estos son, fundamentalmente
la esperanza y la varianza.

Esperanza[editar]
Artculo principal: Esperanza matemtica

La esperanza matemtica (o simplemente esperanza) o valor esperado de una v.a. es la


suma del producto de la probabilidad de cada suceso por el valor de dicho suceso.
Si todos los sucesos son de igual probabilidad la esperanza es la media aritmtica.
Para una variable aleatoria discreta con valores posibles
representadas por la funcin de probabilidad

y sus probabilidades

la esperanza se calcula como:

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los
valores y la funcin de densidad

o
La esperanza tambin se suele simbolizar con
El concepto de esperanza se asocia comnmente en los juegos de azar al de beneficio medio
o beneficio esperado a largo plazo.

Varianza[editar]
Artculo principal: Varianza

La varianza es una medida de dispersin de una variable aleatoria


su esperanza

respecto a

. Se define como la esperanza de la transformacin

o bien

Funcin de distribucin

Funcin de Distribucin Acumulativa para la distribucin normal en la siguiente imagen.

Funcin de Densidad de Probabilidad para varias distribuciones normales. El trazo rojo distingue la
distribucin normal estndar.

En la teora de la probabilidad y en estadstica, una funcin de distribucin acumulada (fda)


describe la probabilidad de que una variable aleatoria real X sujeta a cierta ley de distribucin
de probabilidad se site en la zona de valores menores o iguales a x.
Intuitivamente, asumiendo la funcin f como la ley de distribucin de probabilidad, la fda sera
la funcin con la recta real como dominio, con imagen del rea hasta aqu de la funcin f,
siendo aqu el valor x para la variable aleatoria real X.
La fda asocia a cada valor x, la probabilidad del evento: "la variable X toma valores menores o
iguales a x".
Las Funciones de Distribucin Acumulativa se emplean tambin para especificar la
distribucin de variables aleatoriasmultivariantes.

Para cada nmero real x, una fda est dada por la siguiente definicin:1
En lenguaje
matemtico

Interpretacin
Una funcin de nombre "F" le asigna a cada valor real x, el
de la probabilidad de que una variable aleatoria X asuma un

valor inferior o igual a x.


La probabilidad de que X se site en un intervalo ]a, b] (abierto en a y cerrado en b)
es F(b) F(a) si a b.

La fda de una probabilidad


a todo real le asocia

definida sobre el espacio borliano

es la funcin

que

ndice
[ocultar]

1 Acumulada y Distribuida

2 Ejemplos

3 Notacin

4 Funcin de Distribucin Acumulada Inversa (Funcin Cuantil)


o

4.1 Propiedades tiles de la inversa de pda

5 Propiedades

6 Vase tambin
o

6.1 Referencias
7 Bibliografa

7.1 Estadstica

Acumulada y Distribuida[editar]
Es convencin usar una F mayscula para una fda, en contraste con la f minscula usada
para una Funcin de Densidad de Probabilidad y/o para una Funcin de Probabilidad.
La funcin distribucin puede obtenerse a partir de la funcin de probabilidad respectiva.
La fda en el caso de una variable aleatoria X discreta, puede establecerse como:

Para una variable aleatoria X contnua, fda surge como:

Debe observarse que una definicin del tipo "menor o igual", '' podra sustituirse por
estrictamente "menor" '<'. Esto producira una funcin diferente, pero cualquiera de las
funciones F puede deducirse a partir de la otra f.
Tambin se podra cambiar por una determinada por mayor (>) en lugar de "menor" '<' y
deducir las propiedades de esta nueva funcin.
Slo es preciso ajustar las formulaciones y definiciones a lo pretendido en cada caso.
En pases de lengua inglesa, una convencin es usar una desigualdad de este tipo en lugar
de una desigualdad estricta (<), por ejemplo.

Ejemplos[editar]
Como ejemplo, se supone que X est uniformemente distribuida en el intervalo unitario [0, 1].
En ese caso una fda est dada por:
F(x) = 0, si x < 0;
F(x) = x, si 0 x 1;
F(x) = 1, si x > 1.
Para otro ejemplo, suponiendo que X toma slo los valores 0 y 1, con igual
probabilidad (X sigue una distribucin de Bernoulli con p = 1/2). Entonces una fda
est dada por
F(x) = 0, si x < 0;
F(x) = 1/2, si 0 x < 1;
F(x) = 1, si x 1.

Notacin[editar]
Cuando hay ms de una variable aleatoria y se vuelve necesario explicitar una diferencia entre
las funciones, se representa una fda de la variable aleatoria X por

Funcin de Distribucin Acumulada Inversa (Funcin


Cuantil)[editar]
La funcin cuantil de una variable aleatoria (o de una ley de probabilidad) es la inversa de su
acumulada.
Si la FDA F es estrictamente creciente y continua, su inversa est
definida
es el nico nmero real tal que
.
Slo en tales casos queda as definida la funcin de distribucin inversa o funcin cuantil.
Pero una funcin de distribucin se mantiene constante en todo intervalo en el cual la variable

aleatoria no puede tomar valores. Es por esto que se introduce la siguiente definicin.
Lamentablemente, la distribucin carece, en general, de inversa. Se puede definir,
para

Sea

, la inversa generalizada de la funcin distribucin:

una variable aleatoria con valores en

funcin cuantil de

a la funcin de

en

su funcin de distribucin. Se llama

, denotada por

corresponder:
La inversa de la pda se denomina funcin cuantil.

, que a

hace

La inversa de la pda puede emplearse para trasladar resultados obtenidos para la distribucin
uniforme a otras distribuciones.

Propiedades tiles de la inversa de pda[editar]


1.

es no-decreciente

2.
3.
4.

si y slo si

5.

Si
tiene una distribucin
entonces,
est distribuida como .
Esto se emplea en para la generacin aleatoria de nmeros con el mtodo de muestreo de
transformada inversa.

6.

Si
es una coleccin de variables independentes aleatoriamente distribuidas
definida en el mismo espacio muestral, entonces existen variables aleatorias
tales que
est distribuida como

Ejemplo 1: La mediana es

Ejemplo 2: Sea
Por convencin, podemos decidir que
y

como probabilidad 1 para todo


.
. Se denominar

es el menor de los valores posibles de

es el mayor; pueden ser eventualmente infinitos.

Propiedades[editar]

al 95avo percentil.

Si X es una variable aleatoria discreta, entonces se la obtiene de los valores x1, x2, ... con
probabilidad p1, p2 etc., y una fda de X ser discontinua en los puntos xi y constante entre
ellos.
Si una fda F de X es contnua, entonces X es una variable aleatoria continua; si se dice
de F que es absolutamente continua, entonces existe una funcin Integral de Lebesguef(x) tal
que

para todos los nmeros reales a y b. (La primera de las dos igualdades no sera correcta en
general si no se hubiera dicho que una distribucin es continua.
La continuidad de la distribucin implica que P(X = a) = P(X = b) = 0, de modo que una
diferencia entre "<" y "" deja de ser importante en este contexto.) Una funcin f es igual a
la derivada de F (casi en toda parte), y es llamada Funcin de densidad de probabilidad de la
distribucin de X.
Para cualquier funcin de distribucin

, debe ser:

es no decreciente (creciente o constante):

es contnua a la derecha:

, con

,y

Se cumplen las siguientes propiedades, que permiten tratar con los diferentes tipos de
desigualdades, y que se aplican a funciones de distribucin de variables aleatoriasdiscretas:

En caso de las variables aleatorias contnuas, valen las siguientes propiedades:

es contnua en todos los puntos (en caso de las variables aleatorias discretas era
slo continua a la derecha)

La Prueba de Kolmogrov-Smirnov est basada en funciones de distribucin acumulada y


puede ser usada para ver si dos distribuciones empricas son diferentes o si una distribucin
emprica es diferente de una distribucin ideal.
Muy relacionada con la prueba de Kuiper, la cual es til si el domnio de la distribucin es
cclico como por ejemplo en das de la semana. Por ejemplo podemos usar el test de
Kuiper para ver si el nmero de tornados vara durante el ao o si las ventas de un producto
oscilan da a da o por da del mes.

Vase tambin[editar]

Estadstica descriptiva

Distribucin de probabilidad

Referencias[editar]
1.

Volver arriba Monti, K.L. (1995). Folded Empirical Distribution Function Curves
(Mountain Plots). The American Statistician 49: 342345. JSTOR 2684570.

Bibliografa[editar]

Conceito de varivel aleatria e de funo de distribuo

Portal Action

Estadstica[editar]
Puede considerarse el artculo sobre Estadstica matemtica para completar algunos tpicos.

Proceso estocstico

El ndice de la bolsa es un ejemplo de proceso estocstico de tipo no estacionario (por eso no se puede
predecir).

En estadstica, y especficamente en la teora de la probabilidad, un proceso estocstico es


un concepto matemtico que sirve para caracterizar una sucesin de variables
aleatorias (estocsticas) que evolucionan en funcin de otra variable, generalmente el tiempo.
Cada una de las variables aleatorias del proceso tiene su propia funcin de distribucin de
probabilidad y, entre ellas, pueden estarcorrelacionadas o no.
Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios constituye
un proceso estocstico.
ndice
[ocultar]

1 Ejemplos

2 Definicin matemtica
2.1 Casos especiales

3 Vase tambin

4 Referencias

Ejemplos[editar]

Los siguientes son ejemplos dentro del amplio grupo de las series temporales:

Seales de telecomunicacin.

Seales biomdicas (electrocardiograma, encefalograma, etc.)

Seales ssmicas.

El nmero de manchas solares ao tras ao.

El ndice de la bolsa segundo a segundo.

La evolucin de la poblacin de un municipio ao tras ao.

El tiempo de espera en cola de cada uno de los usuarios que van llegando a
una ventanilla.

El clima es un gigantesco conjunto de procesos estocsticos interrelacionados


(velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el
tiempo.

Los procesos estocsticos de orden mayor a uno, como el caso de una serie
de tiempo de orden 2 y una correlacin de cero con las dems observaciones.

Definicin matemtica[editar]
Un proceso estocstico se puede definir equivalentemente de dos formas diferentes:

Como un conjunto de realizaciones temporales y un ndice aleatorio que selecciona


una de ellas.
Como un conjunto de variables aleatorias
que

, con

Un proceso se dice de "tiempo continuo" si


toma como

indexadas por un ndice , dado

) o de "tiempo discreto" si

es un intervalo (usualmente este intervalo se


es un conjunto numerable(solamente puede

asumir determinados valores, usualmente se toma

). Las variables aleatorias

toman valores en un conjunto que se denomina espacio probabilstico. Sea


un espacio probabilstico. En una muestra aleatoria de tamao se observa un suceso
compuesto
formado por sucesos elementales :
, de manera que

El suceso compuesto es un subconjunto contenido en el espacio muestral y es un lgebra de


Boole . A cada suceso le corresponde un valor de una variable aleatoria , de manera
que
es funcin de :

El dominio de esta funcin o sea el campo de variabilidad del suceso elemental, es el espacio
muestral, y su recorrido, o sea el de la variable aleatoria, es el campo de losnmeros reales.
Se llama proceso aleatorio al valor en
donde para todo
Si se observa el suceso

de un elemento

es una variable aleatoria del valor en


en un momento

de tiempo:
.

define as un proceso estocstico.1


es una filtracin,2 se llama proceso aleatorio adaptado, al valor en

Si

un elemento

, donde

es una variable aleatoria

medible del valor en


. La funcin
trayectoria asociada al suceso .

, de
-

se llama la

Casos especiales[editar]

Proceso estacionario: Un proceso es estacionario en sentido estricto si la funcin de


distribucin conjunta de cualquier subconjunto de variables es constante respecto a
un desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido
amplio (o dbilmente estacionario) cuando se verifica que:
1. La media terica es independiente del tiempo; y
2. Las autocovarianzas de orden s slo vienen afectadas por el lapso de tiempo
transcurrido entre los dos periodos y no dependen del tiempo.

Proceso homogneo: variables aleatorias independientes e idnticamente


distribuidas.

Proceso de Mrkov: Aquellos procesos discretos en que la evolucin slo


depende del estado actual y no de los anteriores.

Proceso de Gauss: Proceso continuo en el que toda combinacin lineal de


variables es una variable de distribucin normal.

Proceso de Poisson

Proceso de Gauss-Mrkov: Son procesos, al mismo tiempo, de Gauss y de


Mrkov

Proceso de Bernoulli Son procesos discretos con una distribucin binomial.

Proceso de Lvy: Son procesos homogneos de Markov de "tiempo continuo" que


generalizan el paseo aleatorio que usualmente se define como de "tiempo
discreto".

Distribucin binomial
Binomial redirige aqu. Para otras acepciones, vase binomial (desambiguacin).

Distribucin binomial

Funcin de probabilidad

Funcin de distribucin de probabilidad

Parmetros

nmero de ensayos (entero)


probabilidad de xito
(real)

Dominio

Funcin de
probabilidad(f
p)

Funcin de
distribucin(c
df)

Media

Mediana

Moda

Varianza

Coeficiente de
simetra

Curtosis

Entropa

Funcin
generadora
de
momentos(mg
f)

Uno de

Funcin
caracterstica

[editar datos en Wikidata]

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que


cuenta el nmero de xitos en una secuencia de n ensayos de Bernoulli independientes entre
s, con una probabilidad fija p de ocurrencia del xito entre los ensayos. Un experimento de
Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno
de estos se denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una
probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de
forma independiente, y se trata de calcular la probabilidad de un determinado nmero de
xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli.
Para representar que una variable aleatoria X sigue una distribucin binomial de
parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica.


ndice
[ocultar]

1 Ejemplos

2 Experimento binomial

3 Caractersticas analticas
o

3.1 Ejemplo

4 Propiedades

5 Relaciones con otras variables aleatorias

6 Propiedades reproductivas

7 Referencias

8 Enlaces externos

Ejemplos[editar]

Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por
esta distribucin:

Se lanza un dado diez veces y se cuenta el nmero X de tres obtenidos:


entonces X ~ B(10, 1/6)

Se lanza una moneda dos veces y se cuenta el nmero X de caras obtenidas:


entonces X ~ B(2, 1/2)

Experimento binomial[editar]
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno
de los experimentos es independiente de los restantes (la probabilidad del resultado de un
experimento no depende del resultado del resto). El resultado de cada experimento ha de
admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de
ambas posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).
Se designa por X a la variable que mide el nmero de xitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de
probabilidad binomial, y se denota B(n,p).

Caractersticas analticas[editar]
Su funcin de probabilidad es

donde

siendo
de en

las combinaciones de

en

elementos tomados

Ejemplo[editar]
Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la
probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(50,
1/6) y la probabilidad sera P(X=20):

Propiedades[editar]

Relaciones con otras variables aleatorias[editar]


Si tiende a infinito y es tal que el producto entre ambos parmetros
tiende a , entonces la distribucin de la variable aleatoria binomial tiende
a una distribucin de Poissonde parmetro .
Por ltimo, se cumple que cuando

=0.5 y n es muy grande (usualmente

se exige que
) la distribucin binomial puede aproximarse
mediante la distribucin normal.

Propiedades reproductivas[editar]
Dadas n variables binomiales independientes de parmetros ni (i = 1,..., n)
y , su suma es tambin una variable binomial, de parmetros n1+... + nn,
y , es decir,

Referencias[editar]
1.

Volver arriba

Distribucin de Bernoulli
Bernoulli
Parmetros

Dominio

Funcin de
probabilidad(fp)

Funcin de
distribucin(cdf)

Media

Mediana

N/A

Moda

Varianza

Coeficiente de
simetra

Curtosis

Entropa

Funcin
generadora de
momentos(mgf)

Funcin
caracterstica

[editar datos en Wikidata]

En teora de probabilidad y estadstica, la distribucin de Bernoulli (o distribucin


dicotmica), nombrada as por elmatemtico y cientfico suizo Jakob Bernoulli, es

una distribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito ( ) y
valor 0 para la probabilidad de fracaso (

).

Si
es una variable aleatoria que mide el "nmero de xitos", y se realiza un nico
experimento con dos posibles resultados (xito o fracaso), se dice que la variable
aleatoria
se distribuye como una Bernoulli de parmetro .

Su funcin de probabilidad viene definida por:

La frmula ser:

Un experimento al cual se aplica la distribucin de Bernoulli se conoce como Ensayo de


Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos
repetidos.
ndice
[ocultar]

1 Propiedades caractersticas

2 Distribuciones Relacionadas

3 Ejemplo

4 Vase tambin

Propiedades caractersticas[editar]
Esperanza matemtica:

Varianza:

Funcin generatriz de momentos:

Funcin caracterstica:

Moda:
0 si q > p (hay ms fracasos que xitos)
1 si q < p (hay ms xitos que fracasos)
0 y 1 si q = p (los dos valores, pues hay igual nmero de fracasos que de xitos)

Asimetra (Sesgo):

Curtosis:

La Curtosis tiende a infinito para valores de cercanos a 0 a 1, pero para


la
distribucin de Bernoulli tiene un valor de curtosis menor que el de cualquier otra distribucin,
igual a -2.

Distribuciones Relacionadas[editar]

Si
son variables aleatorias identicamente distribuidas con
la distribucin de Bernoulli con la misma probabilidad de xito en todas, entonces la variable
aleatoria
presenta una Distribucin Binomial de
probabilidad.

Ejemplo[editar]
"Lanzar una moneda, probabilidad de conseguir que salga cruz".

Se trata de un solo experimento, con dos resultados posibles: el xito (p) se considerar sacar
cruz. Valdr 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5.
La variable aleatoria X medir "nmero de cruces que salen en un lanzamiento", y slo
existirn dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz).
Por tanto, la v.a. X se distribuir como una Bernoulli, ya que cumple todos los requisitos.

Ejemplo:
"Lanzar un dado y salir un 6".
Cuando lanzamos un dado tenemos 6 posibles resultados:

Estamos realizando un nico experimento (lanzar el dado una sola vez).


Se considera xito sacar un 6, por tanto, la probabilidad segn la Regla de Laplace (casos
favorables dividido entre casos posibles) ser 1/6.

Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualquier otro
resultado.

La variable aleatoria X medir "nmero de veces que sale un 6", y solo existen dos valores
posibles, 0 (que no salga 6) y 1 (que salga un 6).
Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parmetro

= 1/6

La probabilidad de que obtengamos un 6 viene definida como la probabilidad de que X sea


igual a 1.

La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X


sea igual a 0.

Probabilidad condicionada
Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que
tambin sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee la
probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el
tiempo a B, sucederlo o pueden ocurrir simultneamente. A puede causar B, viceversa o
pueden no tener relacin causal. Las relaciones causales o temporales son nociones que no
pertenecen al mbito de la probabilidad. Pueden desempear un papel o no dependiendo de
la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un dado. Cul es la
probabilidad de obtener una cara (moneda) y luego un 6 (dado)? Pues eso se escribira como
P (Cara | 6).
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
ndice
[ocultar]

1 Definicin

2 Interpretacin

3 Propiedades

4 Independencia de sucesos

5 Exclusividad mutua

6 La falacia de la probabilidad condicional

7 Problemas de ejemplo

Definicin[editar]

Dado un espacio de probabilidad


con

y dos eventos (o sucesos)

, la probabilidad condicional de A dado B est definida como:

se puede interpretar como, tomando los mundos en los que B se cumple, la fraccin
en los que tambin se cumple A.

Interpretacin[editar]
Tomando los mundos en los que B se cumple,
se puede interpretar como la
fraccin en los que tambin se cumple A. Si el evento B es, por ejemplo, tener la gripe, y
el evento A es tener dolor de cabeza,
cabeza cuando se est enfermo de gripe.

sera la probabilidad de tener dolor de

Propiedades[editar]
1.
1.
Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la
probabilidad de tener dolor de cabeza dado que tengo gripe es 1.
1.

La proporcin de zona verde dentro de B es la misma que la de A en todo el espacio y, de la misma


forma, la proporcin de la zona verde dentro de A es la misma que la de B en todo el espacio. Son
sucesos independientes.

Independencia de sucesos[editar]
Artculo principal: Independencia (probabilidad)

Dos sucesos aleatorios A y B son independientes si y slo si:

O sea que si A y B son independientes, su probabilidad conjunta,

puede ser expresada como el producto de las probabilidades individuales.


Equivalentemente:

En otras palabras, si A y B son independientes, la probabilidad condicional


de A dado B es simplemente la probabilidad de A y viceversa.

Exclusividad mutua[editar]

Los conjuntos A y B no intersecan. Son mutuamente excluyentes.

Dos sucesos A y B son mutuamente excluyentes si y slo si


Entonces,
Adems, si

.
entonces

es igual a 0.

La falacia de la probabilidad condicional[editar]


La falacia de la probabilidad condicional se basa en asumir que P(A|B) es casi igual a P(B|A).
El matemtico John Allen Paulos analiza en su libro El hombre anumrico este error muy comn
cometido por personas que desconocen la probabilidad.
La verdadera relacin entre P(A|B) y P(B|A) es la siguiente:

(Teorema de Bayes)

Problemas de ejemplo[editar]
---La paradoja del falso positivo--La magnitud del error cometido con esta falacia se entiende mejor en trminos de
probabilidades condicionales.
Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto
est bien. Escogiendo un individuo al azar:
y
Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una
posibilidad del 1 % de conseguir un falso positivo, esto es:
y
Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad,
hay una posibilidad del 1 % de un falso negativo, esto es:
y

Ahora, uno puede calcular lo siguiente:

La fraccin de individuos en el grupo que estn sanos y dan negativo:

La fraccin de individuos en el grupo que estn enfermos y dan positivo:

La fraccin de individuos en el grupo que dan falso positivo:

La fraccin de individuos en el grupo que dan falso negativo:

Adems, la fraccin de individuos en el grupo que dan positivo:

Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un


resultado de la prueba positivo:

En este ejemplo, debera ser fcil ver la diferencia entre las probabilidades condicionadas P
(positivo | enfermo) (que es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la
probabilidad de que un individuo enfermo d positivo en la prueba; la segunda es la
probabilidad de que un individuo que da positivo en la prueba tenga realmente la enfermedad.
Con los nmeros escogidos aqu, este ltimo resultado probablemente sera considerado
inaceptable: la mitad de la gente que da positivo en realidad est sana.

La probabilidad de tener una enfermedad rara es de 0,001:


La probabilidad de que cuando el paciente est enfermo se acierte en el diagnstico es de
0,99:
La probabilidad de falso positivo es de 0,05:
Pregunta: Me dicen que he dado positivo, Qu probabilidad hay de que tenga la
enfermedad?

Variables aleatorias intercambiables


En teora de la probabilidad y estadstica, una sucesin de variables aleatorias
intercambiables es una sucesin tal que las observaciones futuras se comportan igual que
las pasadas o, dicho de otra manera, que cualquier reordenacin de un subconjunto finito de
muestras tiene la misma probabilidad de ocurrir. Este concepto formaliza la nocin de "el
futuro es predecible a la vista del pasado".
Una sucesin de variables aleatorias independientes con la misma distribucin es
intercambiable. Pero la independencia no es condicin necesiaria para la intercambiabilidad.
La nocin es fundamental en el desarrollo de la inferencia predictiva de Bruno de Finetti y
en estadstica bayesiana puesto que mientras que los estadsticos frecuentistas usan
variables i.i.d. (muestras de una poblacin), los bayesianos utilizan ms frecuentemente
sucesiones intercambiables.
ndice
[ocultar]

1 Definicin

2 Ejemplos

3 Propiedades

4 Aplicaciones

5 Vase tambin

6 Referencias

Definicin[editar]
Una sucesin de variables aleatorias intercambiables es una sucesin finita o
infinita X1, X2, X3, ... de variables aleatorias tal que para cualquier permutacin finita de los
ndices 1, 2, 3, ..., (es decir, una permutacin que slo afecta a un nmero finito de ndices),
la distribucin de probabilidad de la sucesin permutada

es la misma que la de la sucesin original.


Una sucesin de sucesos E1, E2, E3, ... se dice intercambiable cuando lo es la sucesin de
sus funciones indicadoras..
La funcin de distribucin FX1,...,Xn(x1, ... ,xn) de una sucesin finita de variables aleatorias
intercambiables tiene que ser simtrica en sus argumentos x1, ... ,xn.

Ejemplos[editar]

Cualquier media ponderada de sucesiones de variables aleatorias i.i.d. es


intercambiable.

Sea una urna contiene n bolas rojas y m bolas azules. Supngase que las bolas se
extraen sin reemplazo hasta que la urna se vaca. Sea Xi la variable aleatoria que indica si la isima bola era roja. Entonces {Xi}i=1,...n es intercambiable.

Sea

una variable aleatoria con distribucin normal bivariada con

parmetros
,
Las variables aleatorias
cuando

y coeficiente de correlacin arbitrario


son intercambiables, pero nicamente independientes

Propiedades[editar]

El teorema de De Finetti caracteriza las sucesiones de variables aleatorias


intercambiables como mezclas de sucesiones de variables i.i.d.

Una sucesin de variables aleatorias intercambiables es estrictamente stationaria, por


lo que cumplen una ley de los grandes nmeros en la forma del teorema de Birkhoff-Khinchin
theorem.

Para una sucesin intercambiable finita { Xi }i = 1, 2, 3, ... of length n:

donde 2 = var(X1).
"Constante" en este caso significa que no depende de los valores de los ndices i y j en tanto
que i j.
Esto puede probarse as:

y despus resolviendo la desigualdad para la covarianza. La igualdad se alcanza con un


modelo de urnas simple: una urna contiene una bola roja y n 1 bolas azules que se extraen
sin reemplazo hasta vaciar la urna.

Para una sucesin intercambiable infinita

Aplicaciones[editar]
El extractor de von Neumann es un extractor de aleatoriedad que depende de la
intercambiabilidad: proporciona una manera de construir una sucesin intercambiable de
ceros y unos (con probabilidad 1/2) a partir de otra ms larga en la que la probabilidad es p.
Funciona de la siguiente manera: se parte la sucesin original en pares distintos. Si los dos
elementos del par son iguales, se descarta. Si son distintos, se guarda el primero de ellos.

Distribucin conjunta
En probabilidad, dados dos eventos aleatorios X y Y, la distribucin conjunta de X y Y es
la distribucin de probabilidad de la interseccin de eventos de X y Y, esto es, de los
eventos X e Y ocurriendo de forma simultnea. En el caso de solo dos variables aleatorias se
denomina una distribucin bivariada, pero el concepto se generaliza a cualquier nmero de
eventos o variables aleatorias.
ndice
[ocultar]

1 Caso discreto

2 Caso continuo

3 Vase tambin

4 Enlaces externos

Caso discreto[editar]
Para variables aleatorias discretas, la funcin de probabilidad conjunta est dada por:

Dadas esas probabilidades, se tiene que:

Caso continuo[editar]
Para las variables aleatorias continuas la funcin de densidad de probabilidad
conjunta puede ser escrita como fX,Y(x, y) teniendo:

Donde fY|X(y|x) y fX|Y(x|y) dan la Probabilidad condicionada de Y dado X = x y


de X dado Y = y respectivamente, y fX(x) y fY(y) dada la distribucin
marginal para X y Yrespectivamente.
De nuevo, dado que son distribuciones de probabilidad:

You might also like