MINITAB - CONFIABILIDAD CON DATOS CENSURADOS.docx
Short Description
Download MINITAB - CONFIABILIDAD CON DATOS CENSURADOS.docx...
Description
1
TEORÍA DE LA CONFIABILIDAD MINITAB – DATOS CENSURADOS TOMADO CASI AL PIE DE LA LETRA DEL LIBRO:
Recopilado por: ING. ÁLVARO REYES
Cumaná: 07/11/2012. 2
TEORÍA DE LA CONFIABILIDAD MINITAB – DATOS CENSURADOS FUENTE: http://www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/magister/c http://www.uantof.cl/facultades/csbasicas/Matematica s/academicos/emartinez/magister/confiabilidad/seccion9/ajuste.html onfiabilidad/seccion9/ajuste.html
RECOPILADO POR: ÁLVARO REYES -----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Bibliografía básica: Seguiremos "casi al pie de la letra" el libro de Design Reliability Fundamentals and Applications, de B. S. Dhillon del Departamento de Ingeniería Mecánica, Universidad de Ottawa, Canadá. Editorial CRC Press. El libro completo lo puede bajar desde aquí (formato pdf, comprimido en zip))
MATEMÁTICAS PARA LA TEORÍA DE LA CONFIABILIDAD 1.1 Propiedades de la probabilidad Puesto que la base para la teoría de la confiabilidad es la probabilidad, en esta sección presentaremos las propiedades básicas de probabilidad.
La probabilidad de ocurrencia de un evento A es
La probabilidad del espacio muestral S es
La probabilidad de la negación del espacio muestral S es
La probabilidad de la unión de n eventos independientes es
donde Ai es el i-ésimo evento y P(A i) es la probabilidad de ocurrencia del i-ésimo evento. 3
Para n =2 la ecuación anterior se reduce a
La probabilidad de la unión de n eventos mutuamente excluyentes es
1.2 Definiciones útiles La función de dis tribución
La función de distribución acumulativa de una variable X está definida por
donde t es es el tiempo, f(x) es la función f unción de densidad. L a func función ión de confiabilidad
Está expresada por
siendo R(t) la función de confiabilidad. Y observe que su interpretación es bastante sencilla: viene a ser la probabilidad de que la variable aleatoria (el tiempo aleatorio) dure más allá de un tiempo t. ¿Se da cuenta?
4
La función razón de riesg o
Está definida por
siendo l(t) la función razón de riesgo. Transformada de Laplace
La transformada de Laplace de la función f(t) está definida por
donde s es la variable de la transformada de Laplace, t es la variable tiempo, y f(s) de la transformada de Laplace de f (t) Ejemplo
Si f(t) = e - lt la transformada de Laplace de esta función se calcula del siguiente modo:
Nota: siempre que l + s > 0. Para una tabla de transformada de Laplace acuda al libro base, página 7 capítulo 2.
5
E l teorema del valor fi nal
Si el siguiente límite existe entonces el teorema del valor final establece que
E l valor esperado
El valor esperado de una variable aleatoria continua T, E [ T ], está dado por
Similarmente si la variable es discreta, entonces su esperanza está dada por
donde se consideran las funciones de densidad y cuantía (probabilidad discreta), respectivamente
DISTRIBUCIONES DE PROBABILIDAD En el análisis de la confiabilidad, existen varias distribuciones de probabilidad que se usan con frecuencia. A continuación repasamos varias de ellas.
2.1 La distribución binomial Esta distribución tiene varias aplicaciones en muchos problemas de confiabilidad de tipo combinatorio. Esta distribución es bastante útil cuando se relaciona con la probabilidad de salida tal como el número total de fallas en una secuencia de k ensayos, donde cada ensayo tiene dos posibles resultados (falla o no falla) y la probabilidad de falla es la misma para cada ensayo. la función de densidad discreta o función de cuantía está definida por
p es la probabilidad de falla para cada ensayo; i es el número de fallas en los k ensayos. La
función de distribución acumulativa está dado por
6
2.2 La distribución de Poisson Esta es otra distribución utilizada en confiabilidad cuando uno está interesado en la ocurrencia de un número de eventos que son del mismo tipo. la ocurrencia de cada evento es denotado por un punto en la escala de tiempo, donde cada evento representa una falla. la función de distribución está definida por
donde l es la constante de falla (o razón de falla), t es el tiempo. la función de distribución acumulativa es
2.3 La distribución exponencial Esta es la distribución más ampliamente utilizada en confiabilidad en ingeniería, debido a que muchos procesos en ingeniería muestran una razón constante de riesgo durante su vida útil. Además es analíticamente manejable en el análisis de confiabilidad. la función de densidad continua está definida por
l es la razón constante de falla por unidad de tiempo. Su función de distribución acumulativa es
No resulta complicado demostrar que si T es una variable aleatoria que sigue esta densidad entonces su esperanza es
7
2.4 la distribución de Rayleigh Esta distribución es usada en trabajos de confiabilidad asociados a problemas en teoría del sonido. Su función de densidad está dada por
La función de distribución acumulada está dada por
Si T es una variable aleatoria que sigue esta ley de probabilidad se puede demostrar que su esperanza es
Siendo G ( ) la función gamma definida por
2.5 La distribución de Weibull Esta distribución puede ser usada para representar varios fenómenos físicos. Su función de densidad está dada por
donde b y q son los parámetros de forma y escala, respectivamente. La función de distribución acumulativa es como sigue
8
Si T es una variable aleatoria que sigue esta función de probabilidad, entonces su esperanza es
Observemos que cuando b = 2, caemos en la distribución de Rayleigh.
2.6 La distribución general Esta distribución puede ser usada para representa la función de riesgo "bañera". daremos esta vez primero la función de distribución:
donde k tiene valores entre 0 y 1 y el resto de los parámetros son todos positivos, y por supuesto t > 0. la función de densidad se puede obtener por derivación.
2.7 La distribución normal En los estudios de confiabilidad también es frecuente encontrar tiempos de vida útil que admiten una distribución normal. Como sabemos su densidad es
Modelos para la razón de riesgo La función razón de riesgo es fundamental en teoría de la confiabilidad, y conforme a la definición que dimos en la primera sección está razón depende del modelo de densidad que estemos utilizando. Habíamos definido la función razón de r iesgo como el cociente
9
siendo f( t ) y F( t ) la función de densidad y de distribución respectivamente. Sin embargo rigurosamente hablando, tiene un sentido más intuitivo su definición conceptual como sigue,
Siendo T la variable aleatoria que indica el tiempo de funcionamiento del ítem bajo estudio. No resulta complicado demostrar que esta definición es equivalente a la anterior. De tal manera que el valor l(t)Dt es aproximadamente la probabilidad de que el ítem siga funcionando durante el intervalo de tiempo ( t , t + Dt ) dado que ha funcionado sin falla hasta el tiempo t .
3.1 Distribución exponencial La función de razón de riesgo asociada a esta distribución es
y esto significa que la razón de riesgo de una exponencial es constante, y se le llama razón de falla.
3.2 Distribución de Rayleigh La función de riesgo asociada a esta distribución está dada por
Y este modelo está indicando que la función razón de riesgo crece linealmente con el tiempo.
10
3.2 Distribución de Weibull Conforme a la densidad de Weibull y a su función de distribución, que está dada por
la función razón de riesgo está definida por
Se puede observar que esta razón de riesgo tiene la propiedad de que para los parámetros de forma b =1 y b = 2 son corresponden a la razón de riesgo exponencial y de Rayleigh, respectivamente.
3.3 Distribución general No resulta muy complicado demostrar que la función de razón de riesgo asociada a esta distribución es
También se puede verificar que para valores adecuados de sus parámetros, se pueden obtener las funciones de razón de riesgo para exponencial, Weibull y Rayleigh.
3.4 Distribución normal Finalmente, entregamos otra función de razón de riesgo que es frecuente en los procesos de confiabilidad. El modelo asociado a la densidad normal es
11
Ecuaciones diferenciales: aplicación de una cadena de Markov Supongamos que un sistema puede estar en dos estados respecto de su funcionamiento: sin falla (estado 0), o con falla (estado 1). Supongamos que la probabilidad de que el sistema falle durante un intervalo de tiempo Dt es proporcional a esa longitud de tiempo, esto es lDt, de tal manera que la probabilidad de que no falle en ese intervalo de tiempo Dt será de 1 - lDt. La situación dinámica se puede esquematizar mediante el siguiente grafo markoviano (nota; se supone que toda vez que el sistema falla deja de funcionar, de tal manera que el estado 1 es absorvente)
De manera que podemos considerar este proceso como una cadena de Markov en tiempo discreto, con unidad de tiempo Dt. De manera que si definimos por X n el estado de la variable para el n Dt tiempo, se tiene el siguiente sistema
La matriz de diseño acepta la siguiente descomposición
en cualquier caso no resulta para nada complicado (tarde tres días en darme cuenta de esta sencillez) de que
12
de modo que si podemos concluir que
en el entendido de que es claro que
Y como hemos considerado n intervalos de tiempo de longitud D t , hacemos t = n Dt , y reemplazamos en la solución encontrada, entonces tenemos que
Y puesto que en rigor el índice n indica n veces Dt, lo que se tiene es la variable X t, y ahora para un n suficientemente grande y Dt suficientemente pequeño, tenemos determinado el índice t , podemos concluir que
y por lo tanto
Evidentemente lo que hemos hecho es resolver un problema de ecuaciones diferenciales mediante cadenas de Markov. ¿Cuáles son estas ecuaciones diferenciales? Pues no deje de ver la próxima sesión... 13
Ecuaciones diferenciales: aplicación de una cadena de Markov Consideremos el mismo problema de la sección anterior, cuya dinámica está determinada por el grafo markoviano siguiente
Definamos la colección de variables aleatorias
donde X ( t ) toma valores en los estado {0, 1}, indicando el 0 no falla y 1 el estado de falla, y de esta manera nuestro objetivo es encontrar las siguientes probabilidades
Vamos a iniciar nuestro estudio del estado de falla o no falla en el intervalo (0, t]. De modo que no resulta complicado convencerse que
entendiendo que la probabilidad de no falla son independiente para intervalos no traslapados, es decir que la probabilidad de no falla en el intervalo [0 , t ) es independiente de la no falla en el intervalo [t, t + Dt). Sin embargo, si la falla ocurre en el intervalo (0, t], entonces el proceso termina allí (estado absorvente), y en consecuencia tenemos la siguiente ecuación
14
De manera que estas dos ecuaciones más la probabilidad infinitesimal, nos conduce a las siguientes ecuaciones
y entonces
tendiendo Dt hacía cero nos queda el sistema de ecuaciones diferenciales
Considerando las condiciones iniciales obvias, esto es P 0(0) = 1 y P1(0) = 0, este sistema es de fácil resolución, y nos conduce a la misma solución dada en la sección anterior, esto es
15
ANÁLISIS DE DATOS DE FALLA Los datos de falla son la espina dorsal de la teoría de la confiabilidad toda vez que ellos entregan invaluable información para la administración, diseño e ingeniería de la confiabilidad. En efecto, los datos de falla son una prueba más del diseño de confiabilidad que se ha hecho sobre un determinado sistema, como a la vez la propia evaluación, y, en un proceso de retroalimentación, es la información crucial para la generación de nuevos diseños de confiabilidad del sistema. Suponiendo que se tiene un buen plan de recogida de datos, estos datos deben ser analizados en base a dos pilares, la teoría matemática y la teoría estadística. Y este es el objetivo de las siguientes sesiones. Esto es, entregar herramientas matemáticas y estadísticas para el análisis de los datos de falla. Por lo general, salvo que se indique lo contrario, entenderemos como datos de falla de un determinado sistema (producto, equipo, unidad muestral) al tiempo en que el sistema falló. En general los datos de falla, o el análisis sobre las distribuciones de falla están asociados al tiempo, pero eso no siempre debe ser así, de hecho daremos un ejemplo más adelante en que la variable asociada a la falla no es el tiempo. E s timación de la función de ries g o.
Vamos a entregar una metodología para el tratamiento de los datos correspondientes a los tiempos de fallas. Recordemos la definición de función de razón de riesgo:
siendo f(t) y F(t) las funciones de densidad y distribución, respectivamente. En base a esta función, definimos la función de riesgo acumulada como
Esta sencilla igualdad nos permitirá determinar una línea recta a fin de estimar los parámetros que caracterizan a la función de distribución del tiempo de falla. Como antes iremos describiendo el método para los diversos modelos clásicos que hemos estudiado. Se puede demostrar sin mucha dificultad de que 16
de tal manera que conociendo una y solo una de las cinco funciones f(t), F(t), R(t), z(t) y zc(t) se conocen las cuatros restantes. Vamos a ver la manera de estimar la función de riesgo acumulada desde la metodología de la estadística descriptiva. Supongamos que hemos realizado el estudio descriptivo de n artículos o unidades muestrales de la misma clase. Y supongamos que las fallas ocurrieron en los siguientes tiempos que están ordenados: t 1 < t2 < . . .< tk Esto significa que en el intervalo de tiempo (0, t 1] hubo n1 fallas, en el intervalo (t1, t 2] hubo n2 fallas, hasta llegar el k-ésimo intervalo (t k-1, tk] en que hubo nk fallas (*), de manera que n1 + n2 + ... + nk = n. Haciendo la consabida tabla de frecuencias, tenemos que Tiempo de falla
frecuencias
frec rel
frec acum
frec acum rel.
0 - t1
n1
n1 / n
n1
n1 / n
t1 - t2
n2
n2 / n
n1 + n2
n1 + n2 / n
...
...
...
...
...
tk-1 - tk
nk
nk / n
n1 + ... + nk
(n1+...+nk) / n
De manera que vamos a definir consecuentemente la función de razón de riesgo como
entendiendo que F( t
i - 1 )
es la distribución empírica acumulada relativa correspondiente al i
- 1 intervalo de clase, de modo que la razón de riesgo asociada a cada valor de t i queda como
Con estos resultados estamos en condiciones de diseñar un método para la estimación de la función de riesgo. 17
LA FUNCIÓN DE RIESGO ACUMULADA Y LOS MODELOS DE PROBABILIDAD DE FALLA EL MODELO EXPONENCIAL la función de razón de falla de una distribución exponencial sabemos que es
entonces la distribución acumulada para esta función es
de manera que si despejamos la variable t, nos queda
de manera que el tiempo queda en función de la función acumulada de riesgo, donde
=1
/ . Y esta última ecuación es una línea recta que pasa por el origen y que tiene pendiente . De esta forma, si la variable t la identificamos con los valores que puede tomar la variable aleatoria T que describe los tiempos de falla de un determinado sistema y que se distribuye según una exponencial de parámetro
, entonces la relación entre estos tiempos y la
"estimación de la función de riesgo acumulada" debería ser "una línea recta". Y en este caso la estimación del parámetro
se obtiene por la estimación del parámetro , mediante
la ecuación
donde
18
Gráficamente, se tiene la situación siguiente
En definitiva, si sospechamos que los tiempos de falla de un sistema sigue una distribución exponencial (y a la cual desconocemos el parámetro) entonces los tiempos de falla y la función de riesgo acumulada estimada deben seguir aproximadamente una línea recta como la indicada en la gráfica anterior, y donde la estimación del parámetro
=1/
se
consigue en el valor de z c = 1. este procedimiento se sigue para cualquier otro modelo de probabilidad de falla.
EL MODELO DE WEIBULL Ya sabemos que la función de riesgo para una distribución de Weibull está dado por
de manera que la función de riesgo acumulada es
Despejando t en función de z c, nos queda
19
tomado logaritmo, obtenemos la relación
De manera que obtenemos nuevamente una línea recta con pendiente 1 / b e intercepto en ln . esto significa que si T es una variable aleatoria que indica los tiempos de falla según una distribución de Weibull, la relación entre el logaritmo natural de los tiempos de falla observados deberá seguir un modelo lineal respecto del logaritmo natural de la función de riesgo acumulada estimada.
Nota: Podemos observar hasta este punto que descubrir si la distribución de los tiempos de falla de un determinado sistema sigue una distribución exponencial o una distribución de Weibull, es equivalente a decidir cuál es el mejor modelo que se ajusta a los valores observados (ti, zc(ti); i = 1, ..., n), siendo los modelos propuestos
Y esto se puede conseguir mediante la técnica de los mínimos cuadrados. En la próxima sección veremos un ejemplo.
Ejemplo de ajuste de distribución para tiempos de fallas. Supongamos que a partir del tiempo t = 0 se se prueban 16 unidades de un tipo de sistema y se contabiliza el tiempo de falla o en su defecto su tiempo de operación hasta que el equipo fue retirado del control de prueba por otra razón diferente a la falla, y este último caso el tiempo de retiro (o pérdida de la información) irá acompañado del supraíndice ª, y se llama tiempo de censura (por la derecha, ya veremos la censura por la izquierda). En cualquier caso el tiempo de censura por la derecha es relevante porque indica que hasta ese tiempo el sistema no falló.
20
Tiempos
de
Unidad
falla y tiempos
Nº
censurados (hrs.)
1
14092ª
2
3973
3
2037
4
360
5
628
6
3279
7
2965
8
837
9
79
10
13890ª
11
184
12
13906ª
13
499
14
134
15
10012
16
3439ª
Vamos a indicar la manera de "tabular" estos datos a objeto de estimar la función de riesgo acumulada en concomitancia con lo indicado en la sección 6, donde se indicaba que la razón de riesgo estimada es:
(i) En primer lugar se ordenan los tiempos de falla en orden ascendente, considerando los tiempos de censura; (ii) una vez ordenados estos tiempos se etiquetan en una segunda columna con 0 y 1 conforme el tiempo sea de falla o censurado, respectivamente. En una tercera columna se asigna el valor de su rango, esto es al menor tiempo de falla se le asigna el valor 16 (el número de unidades que son controladas), al segundo menor tiempo 21
de falla se le asigna el rango de 15, y así sucesivamente. Notemos que en este caso los tiempos de fallas son todos distintos, de tal manera que existe uno y solo un equipo que falla asociado al tiempo de falla, esto es que la frecuencia de falla de un equipo asociado al tiempo de falla t i es ni = 1; (iii) de esta manera en una cuarta columna podemos calcular la razón de riesgo para cada tiempo de falla como r ( t i ) = 1 / rango de t i
que es equivalente a la fórmula
(iv) finalmente, calculamos en una quinta columna la razón de riesgo acumulada. En las columnas 4 y 5 no se realiza cómputo alguno para los tiempos censurados. La tabla debería lucir de la siguiente forma tiempos censura rango razón de riesgo riesgo acum 79
0
16
0,063
0,063
134
0
15
0,067
0,129
184
0
14
0,071
0,201
360
0
13
0,077
0,278
499
0
12
0,083
0,452
628
0
11
0,091
0,452
837
1
10
---
---
2037
0
9
0,111
0,563
2965
0
8
0,125
0,688
3279
0
7
0,143
0,831
3439
1
6
---
---
3973
0
5
0,200
1,031
10012
0
4
0,250
1,281
13890
1
3
---
---
13906
1
2
---
---
14092
1
1
22
Observemos que con esta tabla tenemos los pares de calores (t, z c). Ahora si "sospechamos" o planteamos la hipótesis de trabajo que los tiempos de falla siguen una distribución, por ejemplo, de Weibull, debemos acudir al análisis efectuado en la sección anterior donde se estableció que la relación entre t y z c bajo una distribución de Weibull está dada por
De manera tal que aplicando logaritmo natural a t y z c, nos queda la siguiente nube de puntos ln(tiempos)
ln(riesg. Acum)
4,36944785 -2,773 4,8978398
-2,047
5,21493576 -1,606 5,88610403 -1,282 6,2126061
-0,795
6,44254017 -0,795 ---
---
7,61923342 -0,575 7,99463231 -0,374 8,09529378 -0,185
8,28727676 0,030 9,21153965 0,247 ---
---
---
---
---
---
Y es sobre este conjunto de puntos que ajustamos una recta mediante la técnica de mínimos cuadrados, y esta es
23
De modo que esta recta nos indica que 1 / b = 1.6429, y ln ( q ) = 8.2648, lo que nos da una estimación para el parámetro de forma b = 0.6089, y el parámetro de escala q = 3884.69. Finalmente se puede notar que la esperanza para esta distribución estimada es qG( 1 + 1 / b ) = 5737.96 (horas)
Ajuste de distribución a datos de tiempos de fallas: uso de software MINITAB Supongamos que tenemos los mismos tiempos de fallas con datos censurados, de la sección anterior, en una planilla del MINITAB, como se indica a continuación...
24
En la columna "Tiempos" se encuentran ya ordenados (no es estrictamente necesario) tanto los tiempos de fallas como los censurados. La columna "Censura" etiqueta con 1 a los tiempos de censura a la derecha, y con 0 si son efectivamente tiempos de fallas. Ahora seleccionamos el siguiente menú:
Al optar por este menú, aparecerá la siguiente caja de diálogo...
Lo que se debe hacer es simplemente "traspasar" la columna Tiempos al sector Variables, y después optar por la opción Censor... Aquí aparecerá otra caja de diálogo como sigue
25
En este caso se "traspasa" la columna Censura y se establece en la caja Censoring value que precisamente el valor de "1" es el que determina que tiempos están censurados por la derecha. Luego aceptando y eligiendo convenientemente los resultados de salida obtendremos
Observemos que en el recuadro de la derecha aparecen los valores estimados de los parámetros de forma y de escala, y que no difieren sustancialmente de los que habíamos calculado en forma "descriptiva".
26
Otros resultados que se pueden obtener el MINITAB es el siguiente
Indicando con esto las principales medidas de posición, media y dispersión, con sus respectivos errores estándar e intervalos de confianza, al 95%, para cada parámetro.
Otros estadísticos para ajuste de distribución a tiempos de fallas En este tiempo, en virtud del desarrollo de los computadores, son accesibles una serie de estadísticos para realizar la dócima de hipótesis si una determinada distribución se ajusta o no a los datos. Estos estadísticos para la docima, aproximadamente unos 30 años atrás, pertenecían al campo de la "estadística avanzada" toda vez que su aplicación real y de poca frecuencia era costosa, puesto que el computador, como se conocía el computador entonces hace treinta años atrás, solo era accesible a los investigadores que contaban con los medios para su utilización. De manera que el estudio de tal o cual estadístico para la dócima de hipótesis de ajuste de distribución, tenía importancia para el estadístico matemático desde el punto de vista teórico. En la actualidad, resulta imprudente sistematizar la enseñanza teórica de una "técnica de ajuste" a una determinada distribución en un curso de Análisis de Confiabilidad, toda vez que la utilización de tal o cual "ajuste" está ampliamente difundida en cualquier paquete o software estadístico. Con esto no se quiere decir que el estudiante de las matemática estadística no debe saber los fundamentos y principios teóricos de estos, sin embargo, en la distribución del tiempo de enseñanza aprendizaje, digamos con más precisión, enseñar los fundamentos teóricos de los diez o más "pruebas de ajuste" que trae consigo cualquier paquete estadístico, no permitirá, paradójicamente, la aplicación de la teoría de la estadística matemática en lo que respecta al uso del Análisis de Confiabilidad. Con esto queremos decir que los métodos de ajuste de distribución lo confiaremos simplemente al 27
área de estudio de la Estadística Inferencial. A modo de ejemplo, vamos a mostrar una simple página del Statgraphics en que resuelve un problema de ajuste, que perfectamente podría llevarnos unas cuatro horas en la justificación matemática de todas las pruebas o dócimas utilizadas para tal ajuste. Se tienen los siguientes datos de tiempos de fallas de un determinado artículo electrónico medido en horas:
Vamos a docimar si estos datos se ajustan a una distribución exponencia l, utilizando el software Statgraphics. Se muestran los resultados de salida:
Resumen del Análisis Datos: Tiempo fallas 25 valores comprendidos desde 5,0 hasta 351,0 Distribución exponencial ajustada: media = 137,6
28
Dado que p-valor más pequeño de los tests realizados es superior o igual a 0.10, no podemos rechazar que Tiempo fallas proceda de una distribución exponencial con un nivel de confianza de al menos un 90%. Un análisis gráfico de ajuste a una exponencial para los mismos datos, esta vez en el software MINITAB, nos entrega el siguiente resultado:
29
Y para un ajuste a una exponencial, mediante la técnica P-P en el software SPSS, tenemos el siguiente resultado. Distribución contrastada: Exponencial Fórmula de estimación de la proporción utilizada: Blom Rango asignado a empates: Media Para variable TIEMPO_F ... Parámetro de la distribución exponencial estimado: escala = ,00726744
No deja de ser curioso que estos tres paquetes, que sin duda son los más frecuentemente utilizados, aplican diferentes técnicas de ajuste. Dejaremos, por lo menos en este curso de confiabilidad, que las técnicas de ajuste sean vistas en un curso de estadística Inferencial, nosotros simplemente haremos la exigencia de utilizarlas correctamente.
30
ESTIMACIÓN DE PARÁMETROS: MÁXIMA VEROSIMILITUD Toda vez que se ha establecido la ley de densidad que regula los datos de falla, asoma el problema de determinar los parámetros de la función de densidad. El método que estudiaremos aquí es uno de los más clásicos y frecuentes: Estimación de máxima verosimilitud. Y su desarrollo es en extremo sencillo. Supongamos que T 1, T2, ..., Tn son variables aleatorias independientes que denotan, cada una de ellas, el tiempo de falla de n sistemas del mismo tipo, y cada una de estas variables se rige por la misma ley de densidad f(t, q), donde el parámetro q es desconocido, y donde q puede ser un vector de parámetros, esto es q = (q 1, ..., qp). De esta forma, se tiene que la distribución conjunta del vector aleatorio (T1, T2, ..., Tn) tiene la ley de densidad L(t1. t2, ..., tn, q) = f(t1, q) f(t2, q) ... f(tn, q)
(1)
que llamaremos función de verosimilitud. Observemos que toda vez que ocurra una "trayectoria" (o realización) esto es T 1 = t1, T2 = t2, ..., Tn = t n, la expresión (1) es el peso de esta trayectoria, y que ahora será función exclusivamente del vector de parámetros q. Un criterio razonable y conservador para determinar q es que la función (1) tome su máximo valor permisible. Dicho de otra forma, de todos los valores reales que puede tomar la función de verosimilitud (1), ¿qué valor le asignamos?. Simplemente le asignamos el valor máximo de L(t 1. t2, ..., tn, q), y esto significa encontrar un valor de q que maximice a la función de verosimilitud (1). De tal forma entonces, que el "estimador máximo verosímil" de q estará dado por
donde hemos introducido la notación L(t 1. t2, ..., tn, q) = L(q). Encontrar el máximo de L(q) es simplemente un problema que pertenece al cálculo de derivada. En efecto, debemos encontrar valores q i que satisfacen las siguientes ecuaciones 31
y de aquel conjunto de soluciones que satisfacen estas ecuaciones identificamos el valor máximo para . Por otro lado, notemos que
de tal manera que encontrar un máximo para L(q) es equivalente a encontrar un máximo para la función
Y por lo general, esta última expresión es más fácil analíticamente de ser manejable en el cálculo de las derivadas. De otra forma, los candidatos a máximos están en la solución de los sistemas
Ejercicio: Calcule los estimadores máximo verosímil para tiempos de falla que se distribuyen según la ley de densidad exponencial, Weibull y normal.
32
TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (1) Consideremos una función clásica de riesgo tipo "bañera", como se muestra en la figura siguiente:
Esta función de riesgo tiene una fácil interpretación. La relación entre la función de confiabilidad R(t) y la de riesgo (t), está dada por
Supongamos que T es el tiempo de falla de un sistema con ley de densidad de probabilidad f(t), entonces tenemos el siguiente torema, Teorema.
Ejemplo: Suponga que la razón de riesgo de un microprocesador es constante la confiabilidad del microprocesador, su tiempo medio de f alla. Utilizando
33
. Calcule
tenemos que
Teorema. Si R(s) es la transformada de Laplace de la función de confiabilidad R(t), entonces
Ejemplo. Suponga que la razón de falla de un automóvil es constante igual a 0,0004 fallas por hora. Calcule la confiabilidad del automóvil para una misión de 15 horas, y su tiempo medio de falla.
REDES DE CONFIABILIDAD Un sistema puede tener varias configuraciones en relación a su análisis de confiabilidad. En esta sección presentaremos las configuraciones más usuales.
Redes en serie Esta es la configuración más simple que puede ocurrir en un sistema, y es como la describe el siguiente diagrama de bloques en series
Cada bloque representa una componente unitaria (no necesariamente del mismo tipo que las restantes). Si una de las componentes falla, el sistema completo falla o colapsa. Sea E i el evento asociado a la proposición de que "la componente funciona exitosamente" (que sencillamente funciona para lo que fue elaborada), luego la función de confiabilidad está dada por Rs = Pr { E1 E2 ... En } 34
donde Pr es la probabilidad de funcionamiento del sistema completo. Supongamos ahora que los eventos E i son independientes, de tal forma que se concluye que la probabilidad conjunta es el producto de las probabilidades marginales, esto es Rs = Pr { E1 } Pr { E2 } ... Pr { En } de forma más compacta
Observemos que esta función de confiabilidad está calculada de forma general, de tal forma que no se ve en forma explícita su dependencia del tiempo como hemos estudiado la función de confiabilidad hasta ahora. En efecto, la dependencia del tiempo está establecida en forma implícita en la naturaleza de los sucesos E i. Es en estos eventos donde se debe declarar la variable tiempo, por ejemplo: Ei = Ei( t ) = { la componente i funciona a lo menos hasta el tiempo t } de tal forma que si T i es la variable de tiempo de falla asociado a la componente i, y si T S es el tiempo de falla asociado al sistema general, entonces Rs(t) = Pr { t < TS } = Pr { t < T1 } Pr { t < T2 } ... Pr { t < Tn } Continuando con el planteamiento general, sea R i la función de confiabilidad de la componente i, esto es Ri = Pr { Ei } entonces
35
Problema. Observe que la confiabilidad del sistema depende (también) de n, número de componentes en serie del sistema. Demuestre que
Supongamos que cada componente i tiene una razón de riesgo constante
i,
de modo que
de esta forma entonces, la confiabilidad del sistema está dado por
Entonces si T S es el tiempo de falla del sistema, el tiempo medio de falla será
Además, del valor de la función de confiabilidad del sistema
S(t),
se desprende que la
función de razón de riesgo del sistema es constante y está dada por
Y en este caso significa que, si al sistema le agregamos más componentes en serie para su funcionamiento, con riesgo constante por componente, el riesgo total del sistema se incrementa en el riesgo agregado (un razonamiento tan simple que muchas veces es olvidado y es lo que producen las catástrofes o colapsos para este tipo de sistemas, sobre todo en sistemas en serie tipo "maestro chasquilla" o agregación de componentes para que un sistema funcione)
Problema 1. Un auto de carrera tiene cuatro llantas cuya fabricación en su calidad es 36
independiente una del resto. La razón de falla de cada llanta es constante y es de 0.0004 fallas por hora. Obviamente cuando una llanta revienta el auto no puede movilizarse. Calcule lo siguiente: a) la función de confiabilidad del auto para una misión de 15 horas, respecto de las llantas b) la razón de falla del auto respecto de sus llantas c) el tiempo medio de falla del auto respecto de sus llantas.
TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (2) Redes en paralelo En esta configuración al menos una unidad debe operar exitosamente para que el sistema siga operando. Observe el diagrama siguiente
Si Ei denota el suceso de que la unidad funcione, entonces E ic denotará el evento de que la componente i fallé. Si denotamos por F S la probabilidad de que el sistema falle, se tiene que
Ahora si las componentes son independientes, entonces
37
siendo F i la probabilidad de falla de la componente i. Observemos que F s es la probabilidad de que el sistema falle, que es equivalente a la probabilidad de que fallen las n componentes, entonces 1 - F s es la función de confiabilidad, esto es que el sistema funcione, de otra forma la función de confiabilidad, en red paralela, es la probabilidad de que "al menos una funcione", esto es
pero como
entonces
que es la probabilidad de confiabilidad de que un sistema en paralelo con n componentes funcione. Nota: En muchas pruebas periciales, sobre todo en el ámbito forense, se tiene que la expresión de confiabilidad anterior es realmente la "potencia de la prueba pericial". Imagínese un hombre acusado de un delito, que ha dejado n huellas de restos biológicos altamente identificables mediante n pruebas, si el hombre acusado es efectivamente el que cometió el delito, entonces la n pruebas deberán indicar n coincidencias de su organismo con las n huellas (siempre que estas n huellas sean independientes una de otras). No obstante existe la duda de si un hombre inocente ¿pueden coincidir su organismo con las n huellas dejadas? El razonamiento es como sigue, si un hombre es inocente entonces por lo menos en una huella no deberá haber coincidencia con su sistema orgánico, es decir en a lo menos en una prueba deberá haber un fallo, y esta probabilidad es ¡ R S !. En la actualidad, quien redacta estos apuntes junto a otros biólogos, realizó un trabajo sobre la "confiabilidad o potencia de la prueba en n marcadores de polimorfismo en el ADN", que son las verdaderas huellas digitales que posee nuestro ADN, en problemas de paternidad. En efecto, en las pruebas de paternidad se analizan 13 huellas (13 marcadores genéticos), 38
y se utiliza como la potencia de la prueba, esto es la probabilidad de que un hombre falle en al menos una prueba dado que no es el padre verdadero, la expresión R S (que la legislación chilena pide que tenga un valor de 0,9999), no obstante que aceptan que ¡una persona acusada falle en a lo más dos marcadores!. De esta forma la potencia de la prueba o confiabilidad de la prueba es diferente. ¿Cuál es esta confiabilidad? Pues eso es lo que deberá usted responder en una próxima prueba. En cualquier caso este resultado será expuesto el día miércoles 27 de noviembre en la XXXVII Reunión Anual de la Sociedad Genética de Chile. Viña del Mar. Resumen.
Ejercicio: Suponga un sistema con n componentes configuradas en paralelo, y cada componente tiene un tiempo de falla exponencial de parámetro
i.
Calcule la función de
confiabilidad, el tiempo medio de falla del sistema, y la función de razón de riesgo del sistema.
TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (3) REDES (R, N) Se trata de un sistema con n componentes independientes, de tal forma que el sistema funciona toda vez que funcionen al menos r componentes. Es lo que se podría decir un sistema redundante. Si suponemos que la función de confiabilidad de cada componente es la misma, digamos R, y además las componentes son independientes, entonces la confiabilidad del sistema completo, R(r,n), se obtiene fácilmente, y viene dada por
Para un sistema de este tipo donde cada componente tengo una razón de riesgo constante , esto es cuando R = exp { -
t }, entonces
39
y entonces el tiempo medio de falla para el sistema completo es
La complejidad del problema viene cuando las componentes del sistema, manteniendo su independencia, no tienen la misma función de densidad de probabilidad de f alla, y por ende cada componente tiene distinta función de confiabilidad. No obstante, la función de confiabilidad en tal situación se puede deducir del siguiente trabajo sobre "confiabilidad en los marcadores genéticos": aquí. Los cálculos de razón de riesgo y tiempo esperado de falla son relativamente sencillos para el caso en que las componentes sea independientes e idénticamente distribuidas, sin embargo no son tan sencillos los cálculos para el caso en que las componentes sean independientes pero sus funciones de confiabilidad no necesariamente sean iguales. Suponga que
i(t)
es la función de confiabilidad para la componente i-ésima, calcule
entonces la función de confiabilidad R(t) para un sistema (r, n), y además el tiempo medio de falla y la función de riesgo.
REDUNDANCIA EN ESPERA Supongamos un sistema que opera con una componente, sin embargo hay m componentes que están en espera listo para reemplazar a la componente que está operando en caso de falla. De otra forma el sistema tiene (m + 1) componentes, y toda vez que una componente falla un switch automático opera una de las componentes en espera (stand by) para que el sistema siga funcionando. Evidentemente el sistema dejará de funciones si fallan todas las componentes. Para intentar resolver el problema inicialmente, supongamos que las componentes son independientes y cada componente tiene función de confiabilidad R i(t). Y 40
el objetivo es encontrar la confiabilidad del sistema. Observemos el siguiente esquema:
Si TS es el tiempo de falla del sistema, y las funciones de confiabilidad de cada componente están dadas por R i(t), entonces la función RS(t) de confiabilidad está dada por
Utilice este resultado para los casos en que las componentes se distribuyen idénticamente según las distribuciones clásicas que hemos estudiado hasta ahora.
PROCESOS DE NACIMIENTO PURO: APLICACIÓN A LA CONFIABILIDAD Vamos a estudiar sistemas que eventualmente pueden pasar por etapas de "degradación" antes de colapsar definitivamente mediante cadenas de markov, recordemos que esta situación se vio incipientemente en la sección 12. Pero esta vez por razones analíticas consideraremos los estados infinitos para así poder establecer las ecuaciones diferenciales que regulan el sistema, para posteriormente truncar el proceso en un estado finito absorvente, que significará el estado de falla del sistema. Conceptualmente será un proceso de Markov el cual solo podrá avanzar, o quedarse en el estado en que está, en tiempos infinitesimales. El mejor modelo que se adecua a este objetivo es el llamado proceso de nacimiento puro.
41
Proceso de nacimiento Puro Consideremos una sucesión de números positivos {
k}.
Se define un proceso de
nacimiento puro como un proceso de Markov que satisface los siguientes postulados:
X ( t ) denota el valor de estado que puede tomar el proceso en el tiempo t . En lo que
respecta a la teoría de confiabilidad el valor de estado denotará el estado de degradación en que incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos estados como etapas de degradación creciente, hasta llegar a un estado N que significará el estado de colapso, no obstante con el objeto de aplicar directamente la teoría de los procesos de nacimiento puro, consideraremos el espacio de estado infinito {0, 1, 2, ...}.
El término o1,k(h) y o2,k(h) son "infinitesimales" de orden h, esto es
Un ejemplo de función infinitesimal es o(h) = h 2. La función o(h) = h no es infinitesimal de orden h. Además podemos definir
diciendo con esto que el proceso de Markov es estacionario., y estos valores corresponden a los valores del lado izquierdo de (i) y (ii), diciendo con esto además que las funciones 42
infinitesimales no dependen de t. Definamos
Teorema. El proceso de nacimiento puro satisface el siguiente sistema de ecuaciones diferenciales:
La demostración se deja como ejercicio: Se utiliza la ley de la probabilidad completa, la propiedad de Markov y el postulado (iii). La primera ecuación diferencial se puede resolver directamente, y esta es
Las restantes se calculan recurrentemente, y la expresión general está dada por
Tarea: haga las modificaciones pertinentes para detener el proceso en un estado absorvente N. Para asegura la validez del proceso en la resolución de las ecuaciones diferenciales que determinan Pn(t), esto es de que efectivamente
43
los valores
k deben
satisfacer la condición
Nacimiento puro: tiempos de espera, tiempos de falla Para un proceso de nacimiento puro, definamos T k como el tiempo entre el k - ésimo y (k + 1 ) - ésimo nacimiento; de modo que
De otra forma, los Tk son tiempos de estera entre nacimientos (interprételo como la llegada de una componente a reparación o complementariamente a la falla de una componente) De tal modo que
es el tiempo en el cual el k - ésimo nacimiento ocurre. En la sección anterior habíamos visto que P 0(t) = exp( -
0t
), de modo que
es decir T0 tiene una distribución exponencial de parámetro lo. De los postulados del proceso de nacimiento puro que los T k , k > 0, también tienen una distribución exponencial con parámetro
k,
y estos tiempos son mutuamente independientes. Los cálculos precisos
escapan de los objetivos de este curso, pero se puede demostrar que la función característica de S n está dada por
44
De modo que cuando
k
=
, se reconoce que Sn tiene una distribución gamma de
parámetro n, y con esperanza n / .
El proceso de Yule El proceso de Yule es un ejemplo de proceso de nacimiento puro. Supongamos que cada miembro de una comunidad tiene una probabilidad h + o(h) de dar nacimiento a un nuevo miembro en un intervalo de tiempo de longitud h. Supongamos además que X(0) = N, es decir hay N miembros en la población. Suponiendo independencia y no interacción entre los miembros de la población, el teorema del binomio nos ayuda a establecer que
de modo que, en este caso, se tiene que
n =
n
Para el caso particular de que N = 1, el sistema de ecuaciones diferenciales de un proceso de nacimiento puro quedan como:
Utilizando las técnicas apropiadas, por ejemplo Transformada de Laplace, obtenemos el sistema de solución:
La generalización para el caso de que X(0) = N, con técnicas de la función generatriz de momento, se puede demostrar que las probabilidades vienen dadas por
45
View more...
Comments