You are on page 1of 46

1

TEORÍA DE LA CONFIABILIDAD
MINITAB – DATOS CENSURADOS

TOMADO CASI AL PIE DE LA LETRA DEL LIBRO:

Recopilado por:
ING. ÁLVARO REYES

Cumaná: 07/11/2012.

2
TEORÍA DE LA CONFIABILIDAD
MINITAB – DATOS CENSURADOS

FUENTE:
http://www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/magister/confiabilidad/seccion9/ajuste.html

RECOPILADO POR: ÁLVARO REYES


--------------------------------------------------------------------------------------------------------------------

Bibliografía básica: Seguiremos "casi al pie de la letra" el libro de Design Reliability


Fundamentals and Applications, de B. S. Dhillon del Departamento de Ingeniería Mecánica,
Universidad de Ottawa, Canadá. Editorial CRC Press. El libro completo lo puede bajar
desde aquí (formato pdf, comprimido en zip))

MATEMÁTICAS PARA LA TEORÍA DE LA CONFIABILIDAD

1.1 Propiedades de la probabilidad


Puesto que la base para la teoría de la confiabilidad es la probabilidad, en esta sección
presentaremos las propiedades básicas de probabilidad.

 La probabilidad de ocurrencia de un evento A es

 La probabilidad del espacio muestral S es

 La probabilidad de la negación del espacio muestral S es

 La probabilidad de la unión de n eventos independientes es


donde Ai es el i-ésimo evento y P(Ai) es la probabilidad de ocurrencia del i-ésimo evento.

3
Para n =2 la ecuación anterior se reduce a

 La probabilidad de la unión de n eventos mutuamente excluyentes es

1.2 Definiciones útiles


La función de distribución
La función de distribución acumulativa de una variable X está definida por

donde t es el tiempo, f(x) es la función de densidad.

La función de confiabilidad
Está expresada por

siendo R(t) la función de confiabilidad. Y observe que su interpretación es bastante sencilla:


viene a ser la probabilidad de que la variable aleatoria (el tiempo aleatorio) dure más allá de
un tiempo t. ¿Se da cuenta?

4
La función razón de riesgo
Está definida por

siendo l(t) la función razón de riesgo.

Transformada de Laplace
La transformada de Laplace de la función f(t) está definida por

donde s es la variable de la transformada de Laplace, t es la variable tiempo, y f(s) de la


transformada de Laplace de f(t)

Ejemplo
Si f(t) = e - lt la transformada de Laplace de esta función se calcula del siguiente modo:

Nota: siempre que l + s > 0.

Para una tabla de transformada de Laplace acuda al libro base, página 7 capítulo 2.

5
El teorema del valor final
Si el siguiente límite existe entonces el teorema del valor final establece que

El valor esperado
El valor esperado de una variable aleatoria continua T, E [ T ], está dado por

Similarmente si la variable es discreta, entonces su esperanza está dada por

donde se consideran las funciones de densidad y cuantía (probabilidad discreta),


respectivamente

DISTRIBUCIONES DE PROBABILIDAD

En el análisis de la confiabilidad, existen varias distribuciones de probabilidad que se usan


con frecuencia. A continuación repasamos varias de ellas.

2.1 La distribución binomial


Esta distribución tiene varias aplicaciones en muchos problemas de confiabilidad de tipo
combinatorio. Esta distribución es bastante útil cuando se relaciona con la probabilidad de
salida tal como el número total de fallas en una secuencia de k ensayos, donde cada
ensayo tiene dos posibles resultados (falla o no falla) y la probabilidad de falla es la misma
para cada ensayo. la función de densidad discreta o función de cuantía está definida por

p es la probabilidad de falla para cada ensayo; i es el número de fallas en los k ensayos. La


función de distribución acumulativa está dado por

6
2.2 La distribución de Poisson
Esta es otra distribución utilizada en confiabilidad cuando uno está interesado en la
ocurrencia de un número de eventos que son del mismo tipo. la ocurrencia de cada evento
es denotado por un punto en la escala de tiempo, donde cada evento representa una falla.
la función de distribución está definida por

donde l es la constante de falla (o razón de falla), t es el tiempo. la función de distribución


acumulativa es

2.3 La distribución exponencial


Esta es la distribución más ampliamente utilizada en confiabilidad en ingeniería, debido a
que muchos procesos en ingeniería muestran una razón constante de riesgo durante su
vida útil. Además es analíticamente manejable en el análisis de confiabilidad. la función de
densidad continua está definida por

l es la razón constante de falla por unidad de tiempo. Su función de distribución


acumulativa es

No resulta complicado demostrar que si T es una variable aleatoria que sigue esta
densidad entonces su esperanza es

7
2.4 la distribución de Rayleigh
Esta distribución es usada en trabajos de confiabilidad asociados a problemas en teoría del
sonido. Su función de densidad está dada por

La función de distribución acumulada está dada por

Si T es una variable aleatoria que sigue esta ley de probabilidad se puede demostrar que
su esperanza es

Siendo G ( ) la función gamma definida por

2.5 La distribución de Weibull


Esta distribución puede ser usada para representar varios fenómenos físicos. Su función de
densidad está dada por

donde b y q son los parámetros de forma y escala, respectivamente. La función de


distribución acumulativa es como sigue

8
Si T es una variable aleatoria que sigue esta función de probabilidad, entonces su
esperanza es

Observemos que cuando b = 2, caemos en la distribución de Rayleigh.

2.6 La distribución general


Esta distribución puede ser usada para representa la función de riesgo "bañera". daremos
esta vez primero la función de distribución:

donde k tiene valores entre 0 y 1 y el resto de los parámetros son todos positivos, y por
supuesto t > 0. la función de densidad se puede obtener por derivación.

2.7 La distribución normal


En los estudios de confiabilidad también es frecuente encontrar tiempos de vida útil que
admiten una distribución normal. Como sabemos su densidad es

Modelos para la razón de riesgo


La función razón de riesgo es fundamental en teoría de la confiabilidad, y conforme a la
definición que dimos en la primera sección está razón depende del modelo de densidad
que estemos utilizando. Habíamos definido la función razón de riesgo como el cociente

9
siendo f( t ) y F( t ) la función de densidad y de distribución respectivamente. Sin embargo
rigurosamente hablando, tiene un sentido más intuitivo su definición conceptual como
sigue,

Siendo T la variable aleatoria que indica el tiempo de funcionamiento del ítem bajo estudio.
No resulta complicado demostrar que esta definición es equivalente a la anterior. De tal
manera que el valor l(t)Dt es aproximadamente la probabilidad de que el ítem siga
funcionando durante el intervalo de tiempo (t , t + Dt) dado que ha funcionado sin falla
hasta el tiempo t.

3.1 Distribución exponencial


La función de razón de riesgo asociada a esta distribución es

y esto significa que la razón de riesgo de una exponencial es constante, y se le llama razón
de falla.

3.2 Distribución de Rayleigh


La función de riesgo asociada a esta distribución está dada por

Y este modelo está indicando que la función razón de riesgo crece linealmente con el
tiempo.

10
3.2 Distribución de Weibull
Conforme a la densidad de Weibull y a su función de distribución, que está dada por

la función razón de riesgo está definida por

Se puede observar que esta razón de riesgo tiene la propiedad de que para los parámetros
de forma b =1 y b = 2 son corresponden a la razón de riesgo exponencial y de Rayleigh,
respectivamente.

3.3 Distribución general


No resulta muy complicado demostrar que la función de razón de riesgo asociada a esta
distribución es

También se puede verificar que para valores adecuados de sus parámetros, se pueden
obtener las funciones de razón de riesgo para exponencial, Weibull y Rayleigh.

3.4 Distribución normal


Finalmente, entregamos otra función de razón de riesgo que es frecuente en los procesos
de confiabilidad. El modelo asociado a la densidad normal es

11
Ecuaciones diferenciales: aplicación de una cadena de Markov
Supongamos que un sistema puede estar en dos estados respecto de su funcionamiento:
sin falla (estado 0), o con falla (estado 1). Supongamos que la probabilidad de que el
sistema falle durante un intervalo de tiempo Dt es proporcional a esa longitud de tiempo,
esto es lDt, de tal manera que la probabilidad de que no falle en ese intervalo de tiempo Dt
será de 1 - lDt. La situación dinámica se puede esquematizar mediante el siguiente grafo
markoviano (nota; se supone que toda vez que el sistema falla deja de funcionar, de tal
manera que el estado 1 es absorvente)

De manera que podemos considerar este proceso como una cadena de Markov en tiempo
discreto, con unidad de tiempo Dt. De manera que si definimos por X n el estado de la
variable para el n Dt tiempo, se tiene el siguiente sistema

La matriz de diseño acepta la siguiente descomposición

en cualquier caso no resulta para nada complicado (tarde tres días en darme cuenta de
esta sencillez) de que

12
de modo que si podemos concluir que

en el entendido de que es claro que

Y como hemos considerado n intervalos de tiempo de longitud Dt, hacemos t = n Dt, y


reemplazamos en la solución encontrada, entonces tenemos que

Y puesto que en rigor el índice n indica n veces Dt, lo que se tiene es la variable Xt, y ahora
para un n suficientemente grande y Dt suficientemente pequeño, tenemos determinado el
índice t, podemos concluir que

y por lo tanto

Evidentemente lo que hemos hecho es resolver un problema de ecuaciones diferenciales


mediante cadenas de Markov. ¿Cuáles son estas ecuaciones diferenciales? Pues no deje
de ver la próxima sesión...

13
Ecuaciones diferenciales: aplicación de una cadena de Markov
Consideremos el mismo problema de la sección anterior, cuya dinámica está determinada
por el grafo markoviano siguiente

Definamos la colección de variables aleatorias

donde X( t ) toma valores en los estado {0, 1}, indicando el 0 no falla y 1 el estado de falla,
y de esta manera nuestro objetivo es encontrar las siguientes probabilidades

Vamos a iniciar nuestro estudio del estado de falla o no falla en el intervalo (0, t]. De modo
que no resulta complicado convencerse que

entendiendo que la probabilidad de no falla son independiente para intervalos no


traslapados, es decir que la probabilidad de no falla en el intervalo [0 , t ) es independiente
de la no falla en el intervalo [t, t + Dt). Sin embargo, si la falla ocurre en el intervalo (0, t],
entonces el proceso termina allí (estado absorvente), y en consecuencia tenemos la
siguiente ecuación

14
De manera que estas dos ecuaciones más la probabilidad infinitesimal, nos conduce a las
siguientes ecuaciones

y entonces

tendiendo Dt hacía cero nos queda el sistema de ecuaciones diferenciales

Considerando las condiciones iniciales obvias, esto es P 0(0) = 1 y P1(0) = 0, este sistema
es de fácil resolución, y nos conduce a la misma solución dada en la sección anterior, esto
es

15
ANÁLISIS DE DATOS DE FALLA
Los datos de falla son la espina dorsal de la teoría de la confiabilidad toda vez que ellos
entregan invaluable información para la administración, diseño e ingeniería de la
confiabilidad. En efecto, los datos de falla son una prueba más del diseño de confiabilidad
que se ha hecho sobre un determinado sistema, como a la vez la propia evaluación, y, en
un proceso de retroalimentación, es la información crucial para la generación de nuevos
diseños de confiabilidad del sistema.

Suponiendo que se tiene un buen plan de recogida de datos, estos datos deben ser
analizados en base a dos pilares, la teoría matemática y la teoría estadística. Y este es el
objetivo de las siguientes sesiones. Esto es, entregar herramientas matemáticas y
estadísticas para el análisis de los datos de falla. Por lo general, salvo que se indique lo
contrario, entenderemos como datos de falla de un determinado sistema (producto, equipo,
unidad muestral) al tiempo en que el sistema falló. En general los datos de falla, o el
análisis sobre las distribuciones de falla están asociados al tiempo, pero eso no siempre
debe ser así, de hecho daremos un ejemplo más adelante en que la variable asociada a la
falla no es el tiempo.

Estimación de la función de riesgo.

Vamos a entregar una metodología para el tratamiento de los datos correspondientes a los
tiempos de fallas. Recordemos la definición de función de razón de riesgo:

siendo f(t) y F(t) las funciones de densidad y distribución, respectivamente. En base a esta
función, definimos la función de riesgo acumulada como

Esta sencilla igualdad nos permitirá determinar una línea recta a fin de estimar los
parámetros que caracterizan a la función de distribución del tiempo de falla. Como antes
iremos describiendo el método para los diversos modelos clásicos que hemos estudiado.

Se puede demostrar sin mucha dificultad de que

16
de tal manera que conociendo una y solo una de las cinco funciones f(t), F(t), R(t), z(t) y
zc(t) se conocen las cuatros restantes. Vamos a ver la manera de estimar la función de
riesgo acumulada desde la metodología de la estadística descriptiva.

Supongamos que hemos realizado el estudio descriptivo de n artículos o unidades


muestrales de la misma clase. Y supongamos que las fallas ocurrieron en los siguientes
tiempos que están ordenados: t1 < t2 < . . .< tk

Esto significa que en el intervalo de tiempo (0, t1] hubo n1 fallas, en el intervalo (t1, t2] hubo
n2 fallas, hasta llegar el k-ésimo intervalo (tk-1, tk] en que hubo nk fallas (*), de manera que
n1 + n2 + ... + nk = n. Haciendo la consabida tabla de frecuencias, tenemos que

Tiempo de falla frecuencias frec rel frec acum frec acum rel.
0 - t1 n1 n1 / n n1 n1 / n
t1 - t2 n2 n2 / n n1 + n 2 n1 + n 2 / n
... ... ... ... ...
tk-1 - tk nk nk / n n1 + ... + nk (n1+...+nk) / n

De manera que vamos a definir consecuentemente la función de razón de riesgo como

entendiendo que F( t i - 1 ) es la distribución empírica acumulada relativa correspondiente al i


- 1 intervalo de clase, de modo que la razón de riesgo asociada a cada valor de ti queda
como

Con estos resultados estamos en condiciones de diseñar un método para la estimación de


la función de riesgo.

17
LA FUNCIÓN DE RIESGO ACUMULADA Y LOS MODELOS DE PROBABILIDAD DE
FALLA

EL MODELO EXPONENCIAL
la función de razón de falla de una distribución exponencial sabemos que es

entonces la distribución acumulada para esta función es

de manera que si despejamos la variable t, nos queda

de manera que el tiempo queda en función de la función acumulada de riesgo, donde =1


/ . Y esta última ecuación es una línea recta que pasa por el origen y que tiene pendiente
.
De esta forma, si la variable t la identificamos con los valores que puede tomar la variable
aleatoria T que describe los tiempos de falla de un determinado sistema y que se distribuye
según una exponencial de parámetro , entonces la relación entre estos tiempos y la
"estimación de la función de riesgo acumulada" debería ser "una línea recta". Y en este
caso la estimación del parámetro se obtiene por la estimación del parámetro , mediante
la ecuación

donde

18
Gráficamente, se tiene la situación siguiente

En definitiva, si sospechamos que los tiempos de falla de un sistema sigue una distribución
exponencial (y a la cual desconocemos el parámetro) entonces los tiempos de falla y la
función de riesgo acumulada estimada deben seguir aproximadamente una línea recta
como la indicada en la gráfica anterior, y donde la estimación del parámetro =1/ se
consigue en el valor de zc = 1. este procedimiento se sigue para cualquier otro modelo de
probabilidad de falla.

EL MODELO DE WEIBULL

Ya sabemos que la función de riesgo para una distribución de Weibull está dado por

de manera que la función de riesgo acumulada es

Despejando t en función de zc, nos queda

19
tomado logaritmo, obtenemos la relación

De manera que obtenemos nuevamente una línea recta con pendiente 1 / b e intercepto en
ln . esto significa que si T es una variable aleatoria que indica los tiempos de falla según
una distribución de Weibull, la relación entre el logaritmo natural de los tiempos de falla
observados deberá seguir un modelo lineal respecto del logaritmo natural de la función de
riesgo acumulada estimada.

Nota: Podemos observar hasta este punto que descubrir si la distribución de los tiempos de
falla de un determinado sistema sigue una distribución exponencial o una distribución de
Weibull, es equivalente a decidir cuál es el mejor modelo que se ajusta a los valores
observados (ti, zc(ti); i = 1, ..., n), siendo los modelos propuestos

Y esto se puede conseguir mediante la técnica de los mínimos cuadrados. En la próxima


sección veremos un ejemplo.

Ejemplo de ajuste de distribución para tiempos de fallas.


Supongamos que a partir del tiempo t = 0 se se prueban 16 unidades de un tipo de sistema
y se contabiliza el tiempo de falla o en su defecto su tiempo de operación hasta que el
equipo fue retirado del control de prueba por otra razón diferente a la falla, y este último
caso el tiempo de retiro (o pérdida de la información) irá acompañado del supraíndice ª, y
se llama tiempo de censura (por la derecha, ya veremos la censura por la izquierda). En
cualquier caso el tiempo de censura por la derecha es relevante porque indica que hasta
ese tiempo el sistema no falló.

20
Tiempos de
Unidad falla y tiempos
Nº censurados
(hrs.)
1 14092ª
2 3973
3 2037
4 360
5 628
6 3279
7 2965
8 837
9 79
10 13890ª
11 184
12 13906ª
13 499
14 134
15 10012
16 3439ª

Vamos a indicar la manera de "tabular" estos datos a objeto de estimar la función de riesgo
acumulada en concomitancia con lo indicado en la sección 6, donde se indicaba que la
razón de riesgo estimada es:

(i) En primer lugar se ordenan los tiempos de falla en orden ascendente, considerando los
tiempos de censura; (ii) una vez ordenados estos tiempos se etiquetan en una segunda
columna con 0 y 1 conforme el tiempo sea de falla o censurado, respectivamente. En una
tercera columna se asigna el valor de su rango, esto es al menor tiempo de falla se le
asigna el valor 16 (el número de unidades que son controladas), al segundo menor tiempo
21
de falla se le asigna el rango de 15, y así sucesivamente. Notemos que en este caso los
tiempos de fallas son todos distintos, de tal manera que existe uno y solo un equipo que
falla asociado al tiempo de falla, esto es que la frecuencia de falla de un equipo asociado al
tiempo de falla ti es ni = 1; (iii) de esta manera en una cuarta columna podemos calcular la
razón de riesgo para cada tiempo de falla como

r ( ti ) = 1 / rango de ti

que es equivalente a la fórmula

(iv) finalmente, calculamos en una quinta columna la razón de riesgo acumulada. En las
columnas 4 y 5 no se realiza cómputo alguno para los tiempos censurados.
La tabla debería lucir de la siguiente forma

tiempos censura rango razón de riesgo riesgo acum

79 0 16 0,063 0,063

134 0 15 0,067 0,129

184 0 14 0,071 0,201

360 0 13 0,077 0,278

499 0 12 0,083 0,452

628 0 11 0,091 0,452

837 1 10 --- ---

2037 0 9 0,111 0,563

2965 0 8 0,125 0,688

3279 0 7 0,143 0,831

3439 1 6 --- ---

3973 0 5 0,200 1,031

10012 0 4 0,250 1,281

13890 1 3 --- ---

13906 1 2 --- ---

14092 1 1

22
Observemos que con esta tabla tenemos los pares de calores (t, zc). Ahora si
"sospechamos" o planteamos la hipótesis de trabajo que los tiempos de falla siguen una
distribución, por ejemplo, de Weibull, debemos acudir al análisis efectuado en la sección
anterior donde se estableció que la relación entre t y zc bajo una distribución de Weibull
está dada por

De manera tal que aplicando logaritmo natural a t y zc, nos queda la siguiente nube de
puntos

ln(tiempos) ln(riesg. Acum)

4,36944785 -2,773

4,8978398 -2,047

5,21493576 -1,606

5,88610403 -1,282

6,2126061 -0,795

6,44254017 -0,795

--- ---

7,61923342 -0,575

7,99463231 -0,374

8,09529378 -0,185

8,28727676 0,030

9,21153965 0,247

--- ---

--- ---

--- ---

Y es sobre este conjunto de puntos que ajustamos una recta mediante la técnica de
mínimos cuadrados, y esta es

23
De modo que esta recta nos indica que 1 / b = 1.6429, y ln ( q ) = 8.2648, lo que nos da una
estimación para el parámetro de forma b = 0.6089, y el parámetro de escala q = 3884.69.

Finalmente se puede notar que la esperanza para esta distribución estimada es


qG( 1 + 1 / b ) = 5737.96 (horas)

Ajuste de distribución a datos de tiempos de fallas: uso de software MINITAB


Supongamos que tenemos los mismos tiempos de fallas con datos censurados, de la
sección anterior, en una planilla del MINITAB, como se indica a continuación...

24
En la columna "Tiempos" se encuentran ya ordenados (no es estrictamente necesario)
tanto los tiempos de fallas como los censurados. La columna "Censura" etiqueta con 1 a
los tiempos de censura a la derecha, y con 0 si son efectivamente tiempos de fallas. Ahora
seleccionamos el siguiente menú:

Al optar por este menú, aparecerá la siguiente caja de diálogo...

Lo que se debe hacer es simplemente "traspasar" la columna Tiempos al sector Variables,


y después optar por la opción Censor... Aquí aparecerá otra caja de diálogo como sigue

25
En este caso se "traspasa" la columna Censura y se establece en la caja Censoring value
que precisamente el valor de "1" es el que determina que tiempos están censurados por la
derecha. Luego aceptando y eligiendo convenientemente los resultados de salida
obtendremos

Observemos que en el recuadro de la derecha aparecen los valores estimados de los


parámetros de forma y de escala, y que no difieren sustancialmente de los que habíamos
calculado en forma "descriptiva".

26
Otros resultados que se pueden obtener el MINITAB es el siguiente

Indicando con esto las principales medidas de posición, media y dispersión, con sus
respectivos errores estándar e intervalos de confianza, al 95%, para cada parámetro.

Otros estadísticos para ajuste de distribución a tiempos de fallas

En este tiempo, en virtud del desarrollo de los computadores, son accesibles una serie de
estadísticos para realizar la dócima de hipótesis si una determinada distribución se ajusta o
no a los datos. Estos estadísticos para la docima, aproximadamente unos 30 años atrás,
pertenecían al campo de la "estadística avanzada" toda vez que su aplicación real y de
poca frecuencia era costosa, puesto que el computador, como se conocía el computador
entonces hace treinta años atrás, solo era accesible a los investigadores que contaban con
los medios para su utilización. De manera que el estudio de tal o cual estadístico para la
dócima de hipótesis de ajuste de distribución, tenía importancia para el estadístico
matemático desde el punto de vista teórico.

En la actualidad, resulta imprudente sistematizar la enseñanza teórica de una "técnica de


ajuste" a una determinada distribución en un curso de Análisis de Confiabilidad, toda vez
que la utilización de tal o cual "ajuste" está ampliamente difundida en cualquier paquete o
software estadístico. Con esto no se quiere decir que el estudiante de las matemática
estadística no debe saber los fundamentos y principios teóricos de estos, sin embargo, en
la distribución del tiempo de enseñanza aprendizaje, digamos con más precisión, enseñar
los fundamentos teóricos de los diez o más "pruebas de ajuste" que trae consigo cualquier
paquete estadístico, no permitirá, paradójicamente, la aplicación de la teoría de la
estadística matemática en lo que respecta al uso del Análisis de Confiabilidad. Con esto
queremos decir que los métodos de ajuste de distribución lo confiaremos simplemente al

27
área de estudio de la Estadística Inferencial. A modo de ejemplo, vamos a mostrar una
simple página del Statgraphics en que resuelve un problema de ajuste, que perfectamente
podría llevarnos unas cuatro horas en la justificación matemática de todas las pruebas o
dócimas utilizadas para tal ajuste.

Se tienen los siguientes datos de tiempos de fallas de un determinado artículo electrónico


medido en horas:

Vamos a docimar si estos datos se ajustan a una distribución exponencial, utilizando el


software Statgraphics. Se muestran los resultados de salida:

Resumen del Análisis


Datos: Tiempo fallas
25 valores comprendidos desde 5,0 hasta 351,0
Distribución exponencial ajustada:
media = 137,6

28
Dado que p-valor más pequeño de los tests realizados es superior o igual a 0.10, no
podemos rechazar que Tiempo fallas proceda de una distribución exponencial con
un nivel de confianza de al menos un 90%.

Un análisis gráfico de ajuste a una exponencial para los mismos datos, esta vez en el
software MINITAB, nos entrega el siguiente resultado:

29
Y para un ajuste a una exponencial, mediante la técnica P-P en el software SPSS, tenemos
el siguiente resultado.

Distribución contrastada: Exponencial


Fórmula de estimación de la proporción utilizada: Blom
Rango asignado a empates: Media
Para variable TIEMPO_F ...
Parámetro de la distribución exponencial estimado: escala = ,00726744

No deja de ser curioso que estos tres paquetes, que sin duda son los más frecuentemente
utilizados, aplican diferentes técnicas de ajuste.

Dejaremos, por lo menos en este curso de confiabilidad, que las técnicas de ajuste sean
vistas en un curso de estadística Inferencial, nosotros simplemente haremos la exigencia
de utilizarlas correctamente.

30
ESTIMACIÓN DE PARÁMETROS: MÁXIMA VEROSIMILITUD

Toda vez que se ha establecido la ley de densidad que regula los datos de falla, asoma el
problema de determinar los parámetros de la función de densidad.

El método que estudiaremos aquí es uno de los más clásicos y frecuentes: Estimación de
máxima verosimilitud. Y su desarrollo es en extremo sencillo. Supongamos que T 1, T2, ...,
Tn son variables aleatorias independientes que denotan, cada una de ellas, el tiempo de
falla de n sistemas del mismo tipo, y cada una de estas variables se rige por la misma ley
de densidad f(t, q), donde el parámetro q es desconocido, y donde q puede ser un vector
de parámetros, esto es q = (q1, ..., qp). De esta forma, se tiene que la distribución conjunta
del vector aleatorio (T1, T2, ..., Tn) tiene la ley de densidad

L(t1. t2, ..., tn, q) = f(t1, q) f(t2, q) ... f(tn, q) (1)

que llamaremos función de verosimilitud. Observemos que toda vez que ocurra una
"trayectoria" (o realización) esto es T1 = t1, T2 = t2, ..., Tn = tn, la expresión (1) es el peso de
esta trayectoria, y que ahora será función exclusivamente del vector de parámetros q. Un
criterio razonable y conservador para determinar q es que la función (1) tome su máximo
valor permisible. Dicho de otra forma, de todos los valores reales que puede tomar la
función de verosimilitud (1), ¿qué valor le asignamos?. Simplemente le asignamos el valor
máximo de L(t1. t2, ..., tn, q), y esto significa encontrar un valor de q que maximice a la
función de verosimilitud (1).

De tal forma entonces, que el "estimador máximo verosímil" de q estará dado por

donde hemos introducido la notación L(t1. t2, ..., tn, q) = L(q).

Encontrar el máximo de L(q) es simplemente un problema que pertenece al cálculo de


derivada. En efecto, debemos encontrar valores qi que satisfacen las siguientes ecuaciones

31
y de aquel conjunto de soluciones que satisfacen estas ecuaciones identificamos el valor
máximo para . Por otro lado, notemos que

de tal manera que encontrar un máximo para L(q) es equivalente a encontrar un máximo
para la función

Y por lo general, esta última expresión es más fácil analíticamente de ser manejable en el
cálculo de las derivadas. De otra forma, los candidatos a máximos están en la solución de
los sistemas

Ejercicio: Calcule los estimadores máximo verosímil para tiempos de falla que se
distribuyen según la ley de densidad exponencial, Weibull y normal.

32
TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (1)

Consideremos una función clásica de riesgo tipo "bañera", como se muestra en la figura
siguiente:

Esta función de riesgo tiene una fácil interpretación. La relación entre la función de
confiabilidad R(t) y la de riesgo (t), está dada por

Supongamos que T es el tiempo de falla de un sistema con ley de densidad de probabilidad


f(t), entonces tenemos el siguiente torema,

Teorema.

Ejemplo: Suponga que la razón de riesgo de un microprocesador es constante . Calcule


la confiabilidad del microprocesador, su tiempo medio de falla.
Utilizando

33
tenemos que

Teorema. Si R(s) es la transformada de Laplace de la función de confiabilidad R(t),


entonces

Ejemplo. Suponga que la razón de falla de un automóvil es constante igual a 0,0004 fallas
por hora. Calcule la confiabilidad del automóvil para una misión de 15 horas, y su tiempo
medio de falla.

REDES DE CONFIABILIDAD

Un sistema puede tener varias configuraciones en relación a su análisis de confiabilidad.


En esta sección presentaremos las configuraciones más usuales.

Redes en serie
Esta es la configuración más simple que puede ocurrir en un sistema, y es como la
describe el siguiente diagrama de bloques en series

Cada bloque representa una componente unitaria (no necesariamente del mismo tipo que
las restantes). Si una de las componentes falla, el sistema completo falla o colapsa. Sea Ei
el evento asociado a la proposición de que "la componente funciona exitosamente" (que
sencillamente funciona para lo que fue elaborada), luego la función de confiabilidad está
dada por

Rs = Pr { E1 E2 ... En }

34
donde Pr es la probabilidad de funcionamiento del sistema completo. Supongamos ahora
que los eventos Ei son independientes, de tal forma que se concluye que la probabilidad
conjunta es el producto de las probabilidades marginales, esto es

Rs = Pr { E1 } Pr { E2 } ... Pr { En }

de forma más compacta

Observemos que esta función de confiabilidad está calculada de forma general, de tal
forma que no se ve en forma explícita su dependencia del tiempo como hemos estudiado la
función de confiabilidad hasta ahora. En efecto, la dependencia del tiempo está establecida
en forma implícita en la naturaleza de los sucesos E i. Es en estos eventos donde se debe
declarar la variable tiempo, por ejemplo:

Ei = Ei( t ) = { la componente i funciona a lo menos hasta el tiempo t }

de tal forma que si Ti es la variable de tiempo de falla asociado a la componente i, y si T S


es el tiempo de falla asociado al sistema general, entonces

Rs(t) = Pr { t < TS } = Pr { t < T1 } Pr { t < T2 } ... Pr { t < Tn }

Continuando con el planteamiento general, sea Ri la función de confiabilidad de la


componente i, esto es

Ri = Pr { Ei }

entonces

35
Problema. Observe que la confiabilidad del sistema depende (también) de n, número de
componentes en serie del sistema. Demuestre que

Supongamos que cada componente i tiene una razón de riesgo constante i, de modo que

de esta forma entonces, la confiabilidad del sistema está dado por

Entonces si TS es el tiempo de falla del sistema, el tiempo medio de falla será

Además, del valor de la función de confiabilidad del sistema S(t), se desprende que la
función de razón de riesgo del sistema es constante y está dada por

Y en este caso significa que, si al sistema le agregamos más componentes en serie para su
funcionamiento, con riesgo constante por componente, el riesgo total del sistema se
incrementa en el riesgo agregado (un razonamiento tan simple que muchas veces es
olvidado y es lo que producen las catástrofes o colapsos para este tipo de sistemas, sobre
todo en sistemas en serie tipo "maestro chasquilla" o agregación de componentes para que
un sistema funcione)

Problema 1. Un auto de carrera tiene cuatro llantas cuya fabricación en su calidad es

36
independiente una del resto. La razón de falla de cada llanta es constante y es de 0.0004
fallas por hora. Obviamente cuando una llanta revienta el auto no puede movilizarse.
Calcule lo siguiente:
a) la función de confiabilidad del auto para una misión de 15 horas, respecto de las llantas
b) la razón de falla del auto respecto de sus llantas
c) el tiempo medio de falla del auto respecto de sus llantas.

TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (2)

Redes en paralelo
En esta configuración al menos una unidad debe operar exitosamente para que el sistema
siga operando. Observe el diagrama siguiente

Si Ei denota el suceso de que la unidad funcione, entonces E ic denotará el evento de que la


componente i fallé. Si denotamos por FS la probabilidad de que el sistema falle, se tiene
que

Ahora si las componentes son independientes, entonces

37
siendo Fi la probabilidad de falla de la componente i. Observemos que F s es la probabilidad
de que el sistema falle, que es equivalente a la probabilidad de que fallen las n
componentes, entonces 1 - Fs es la función de confiabilidad, esto es que el sistema
funcione, de otra forma la función de confiabilidad, en red paralela, es la probabilidad de
que "al menos una funcione", esto es

pero como

entonces

que es la probabilidad de confiabilidad de que un sistema en paralelo con n componentes


funcione.

Nota: En muchas pruebas periciales, sobre todo en el ámbito forense, se tiene que la
expresión de confiabilidad anterior es realmente la "potencia de la prueba pericial".
Imagínese un hombre acusado de un delito, que ha dejado n huellas de restos biológicos
altamente identificables mediante n pruebas, si el hombre acusado es efectivamente el que
cometió el delito, entonces la n pruebas deberán indicar n coincidencias de su organismo
con las n huellas (siempre que estas n huellas sean independientes una de otras). No
obstante existe la duda de si un hombre inocente ¿pueden coincidir su organismo con las n
huellas dejadas? El razonamiento es como sigue, si un hombre es inocente entonces por lo
menos en una huella no deberá haber coincidencia con su sistema orgánico, es decir en a
lo menos en una prueba deberá haber un fallo, y esta probabilidad es ¡ RS !. En la
actualidad, quien redacta estos apuntes junto a otros biólogos, realizó un trabajo sobre la
"confiabilidad o potencia de la prueba en n marcadores de polimorfismo en el ADN", que
son las verdaderas huellas digitales que posee nuestro ADN, en problemas de paternidad.
En efecto, en las pruebas de paternidad se analizan 13 huellas (13 marcadores genéticos),

38
y se utiliza como la potencia de la prueba, esto es la probabilidad de que un hombre falle
en al menos una prueba dado que no es el padre verdadero, la expresión R S (que la
legislación chilena pide que tenga un valor de 0,9999), no obstante que aceptan que ¡una
persona acusada falle en a lo más dos marcadores!. De esta forma la potencia de la prueba
o confiabilidad de la prueba es diferente. ¿Cuál es esta confiabilidad? Pues eso es lo que
deberá usted responder en una próxima prueba. En cualquier caso este resultado será
expuesto el día miércoles 27 de noviembre en la XXXVII Reunión Anual de la Sociedad
Genética de Chile. Viña del Mar. Resumen.

Ejercicio: Suponga un sistema con n componentes configuradas en paralelo, y cada


componente tiene un tiempo de falla exponencial de parámetro i. Calcule la función de
confiabilidad, el tiempo medio de falla del sistema, y la función de razón de riesgo del
sistema.

TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (3)


REDES (R, N)

Se trata de un sistema con n componentes independientes, de tal forma que el sistema


funciona toda vez que funcionen al menos r componentes. Es lo que se podría decir un
sistema redundante.

Si suponemos que la función de confiabilidad de cada componente es la misma, digamos


R, y además las componentes son independientes, entonces la confiabilidad del sistema
completo, R(r,n), se obtiene fácilmente, y viene dada por

Para un sistema de este tipo donde cada componente tengo una razón de riesgo constante
, esto es cuando R = exp { - t }, entonces

39
y entonces el tiempo medio de falla para el sistema completo es

La complejidad del problema viene cuando las componentes del sistema, manteniendo su
independencia, no tienen la misma función de densidad de probabilidad de falla, y por ende
cada componente tiene distinta función de confiabilidad. No obstante, la función de
confiabilidad en tal situación se puede deducir del siguiente trabajo sobre "confiabilidad en
los marcadores genéticos": aquí.

Los cálculos de razón de riesgo y tiempo esperado de falla son relativamente sencillos para
el caso en que las componentes sea independientes e idénticamente distribuidas, sin
embargo no son tan sencillos los cálculos para el caso en que las componentes sean
independientes pero sus funciones de confiabilidad no necesariamente sean iguales.
Suponga que i(t) es la función de confiabilidad para la componente i-ésima, calcule
entonces la función de confiabilidad R(t) para un sistema (r, n), y además el tiempo medio
de falla y la función de riesgo.

REDUNDANCIA EN ESPERA

Supongamos un sistema que opera con una componente, sin embargo hay m componentes
que están en espera listo para reemplazar a la componente que está operando en caso de
falla. De otra forma el sistema tiene (m + 1) componentes, y toda vez que una componente
falla un switch automático opera una de las componentes en espera (stand by) para que el
sistema siga funcionando. Evidentemente el sistema dejará de funciones si fallan todas las
componentes. Para intentar resolver el problema inicialmente, supongamos que las
componentes son independientes y cada componente tiene función de confiabilidad R i(t). Y

40
el objetivo es encontrar la confiabilidad del sistema. Observemos el siguiente esquema:

Si TS es el tiempo de falla del sistema, y las funciones de confiabilidad de cada componente


están dadas por Ri(t), entonces la función RS(t) de confiabilidad está dada por

Utilice este resultado para los casos en que las componentes se distribuyen idénticamente
según las distribuciones clásicas que hemos estudiado hasta ahora.

PROCESOS DE NACIMIENTO PURO: APLICACIÓN A LA CONFIABILIDAD

Vamos a estudiar sistemas que eventualmente pueden pasar por etapas de "degradación"
antes de colapsar definitivamente mediante cadenas de markov, recordemos que esta
situación se vio incipientemente en la sección 12. Pero esta vez por razones analíticas
consideraremos los estados infinitos para así poder establecer las ecuaciones diferenciales
que regulan el sistema, para posteriormente truncar el proceso en un estado finito
absorvente, que significará el estado de falla del sistema. Conceptualmente será un
proceso de Markov el cual solo podrá avanzar, o quedarse en el estado en que está, en
tiempos infinitesimales. El mejor modelo que se adecua a este objetivo es el llamado
proceso de nacimiento puro.

41
Proceso de nacimiento Puro

Consideremos una sucesión de números positivos { k}. Se define un proceso de


nacimiento puro como un proceso de Markov que satisface los siguientes postulados:

X( t ) denota el valor de estado que puede tomar el proceso en el tiempo t. En lo que


respecta a la teoría de confiabilidad el valor de estado denotará el estado de degradación
en que incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos estados
como etapas de degradación creciente, hasta llegar a un estado N que significará el estado
de colapso, no obstante con el objeto de aplicar directamente la teoría de los procesos de
nacimiento puro, consideraremos el espacio de estado infinito {0, 1, 2, ...}.

El término o1,k(h) y o2,k(h) son "infinitesimales" de orden h, esto es

Un ejemplo de función infinitesimal es o(h) = h2. La función o(h) = h no es infinitesimal de


orden h.

Además podemos definir

diciendo con esto que el proceso de Markov es estacionario., y estos valores corresponden
a los valores del lado izquierdo de (i) y (ii), diciendo con esto además que las funciones

42
infinitesimales no dependen de t.
Definamos

Teorema. El proceso de nacimiento puro satisface el siguiente sistema de ecuaciones


diferenciales:

La demostración se deja como ejercicio: Se utiliza la ley de la probabilidad completa, la


propiedad de Markov y el postulado (iii).

La primera ecuación diferencial se puede resolver directamente, y esta es

Las restantes se calculan recurrentemente, y la expresión general está dada por

Tarea: haga las modificaciones pertinentes para detener el proceso en un estado


absorvente N.

Para asegura la validez del proceso en la resolución de las ecuaciones diferenciales que
determinan Pn(t), esto es de que efectivamente

43
los valores k deben satisfacer la condición

Nacimiento puro: tiempos de espera, tiempos de falla


Para un proceso de nacimiento puro, definamos Tk como el tiempo entre el k - ésimo y (k +
1 ) - ésimo nacimiento; de modo que

De otra forma, los Tk son tiempos de estera entre nacimientos (interprételo como la llegada
de una componente a reparación o complementariamente a la falla de una componente)
De tal modo que

es el tiempo en el cual el k - ésimo nacimiento ocurre.


En la sección anterior habíamos visto que P0(t) = exp( - 0t ), de modo que

es decir T0 tiene una distribución exponencial de parámetro lo. De los postulados del
proceso de nacimiento puro que los Tk , k > 0, también tienen una distribución exponencial
con parámetro k, y estos tiempos son mutuamente independientes. Los cálculos precisos
escapan de los objetivos de este curso, pero se puede demostrar que la función
característica de Sn está dada por

44
De modo que cuando k = , se reconoce que Sn tiene una distribución gamma de
parámetro n, y con esperanza n / .

El proceso de Yule
El proceso de Yule es un ejemplo de proceso de nacimiento puro. Supongamos que cada
miembro de una comunidad tiene una probabilidad h + o(h) de dar nacimiento a un nuevo
miembro en un intervalo de tiempo de longitud h. Supongamos además que X(0) = N, es
decir hay N miembros en la población. Suponiendo independencia y no interacción entre
los miembros de la población, el teorema del binomio nos ayuda a establecer que

de modo que, en este caso, se tiene que n =n

Para el caso particular de que N = 1, el sistema de ecuaciones diferenciales de un proceso


de nacimiento puro quedan como:

Utilizando las técnicas apropiadas, por ejemplo Transformada de Laplace, obtenemos el


sistema de solución:

La generalización para el caso de que X(0) = N, con técnicas de la función generatriz de


momento, se puede demostrar que las probabilidades vienen dadas por

45
El proceso de Poisson
El proceso de Poisson es un proceso Markoviano que cumple los siguientes postulados

El postulado (i) tiene una fácil interpretación en la teoría de la confiabilidad. En efecto,


suponga que X(t) denota el número de elementos que fallan en el tiempo t, entonces la
expresión

y la expresión de la izquierda es equivalente a la definición de función de riesgo. De modo


que en este caso, el "riesgo" es constante y vale .

Otra adecuación de este proceso, que llamaremos proceso de falla Poisson, es


considerar que X(0) = N, y X(t) denota el número de componentes de un sistema que
funcionan, donde las componentes son independientes e igualmente distribuidas, entonces
un modelo de falla que se adecue a este proceso debe satisfacer lo siguiente:

No resulta complicado demostrar que, para el proceso de Poisson general, las


probabilidades

vienen dadas por

46