MINITAB - CONFIABILIDAD CON DATOS CENSURADOS.docx

May 12, 2019 | Author: GUACARAPO | Category: Probability Distribution, Statistics, Probability, Function (Mathematics), Random Variable
Share Embed Donate


Short Description

Download MINITAB - CONFIABILIDAD CON DATOS CENSURADOS.docx...

Description

1

TEORÍA DE LA CONFIABILIDAD MINITAB  – DATOS CENSURADOS TOMADO CASI AL PIE DE LA LETRA DEL LIBRO:

Recopilado por: ING. ÁLVARO REYES

Cumaná: 07/11/2012. 2

TEORÍA DE LA CONFIABILIDAD MINITAB  – DATOS CENSURADOS FUENTE: http://www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/magister/c http://www.uantof.cl/facultades/csbasicas/Matematica s/academicos/emartinez/magister/confiabilidad/seccion9/ajuste.html onfiabilidad/seccion9/ajuste.html

RECOPILADO POR: ÁLVARO REYES -----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Bibliografía básica: Seguiremos "casi al pie de la letra" el libro de Design Reliability Fundamentals and Applications, de B. S. Dhillon del Departamento de Ingeniería Mecánica, Universidad de Ottawa, Canadá. Editorial CRC Press. El libro completo lo puede bajar desde aquí (formato pdf, comprimido en zip))

MATEMÁTICAS PARA LA TEORÍA DE LA CONFIABILIDAD 1.1 Propiedades de la probabilidad Puesto que la base para la teoría de la confiabilidad es la probabilidad, en esta sección presentaremos las propiedades básicas de probabilidad.



La probabilidad de ocurrencia de un evento  A es



La probabilidad del espacio muestral S es



La probabilidad de la negación del espacio muestral S es



La probabilidad de la unión de n eventos independientes es



donde Ai es el i-ésimo evento y P(A i) es la probabilidad de ocurrencia del i-ésimo evento. 3

Para n =2 la ecuación anterior se reduce a



La probabilidad de la unión de n eventos mutuamente excluyentes es

1.2 Definiciones útiles La función de dis tribución

La función de distribución acumulativa de una variable X está definida por

donde t  es  es el tiempo, f(x) es la función f unción de densidad. L a func función ión de confiabilidad

Está expresada por

siendo R(t) la función de confiabilidad. Y observe que su interpretación es bastante sencilla: viene a ser la probabilidad de que la variable aleatoria (el tiempo aleatorio) dure más allá de un tiempo t. ¿Se da cuenta?

4

La función razón de riesg o

Está definida por

siendo l(t) la función razón de riesgo. Transformada de Laplace

La transformada de Laplace de la función f(t) está definida por

donde s es la variable de la transformada de Laplace, t es la variable tiempo, y f(s) de la transformada de Laplace de f (t) Ejemplo

Si f(t) = e - lt la transformada de Laplace de esta función se calcula del siguiente modo:

Nota: siempre que l + s > 0. Para una tabla de transformada de Laplace acuda al libro base, página 7 capítulo 2.

5

E l teorema del valor fi nal

Si el siguiente límite existe entonces el teorema del valor final establece que

E l valor esperado

El valor esperado de una variable aleatoria continua T, E [ T  ], está dado por

Similarmente si la variable es discreta, entonces su esperanza está dada por

donde se consideran las funciones de densidad y cuantía (probabilidad discreta), respectivamente

DISTRIBUCIONES DE PROBABILIDAD En el análisis de la confiabilidad, existen varias distribuciones de probabilidad que se usan con frecuencia. A continuación repasamos varias de ellas.

2.1 La distribución binomial Esta distribución tiene varias aplicaciones en muchos problemas de confiabilidad de tipo combinatorio. Esta distribución es bastante útil cuando se relaciona con la probabilidad de salida tal como el número total de fallas en una secuencia de k ensayos, donde cada ensayo tiene dos posibles resultados (falla o no falla) y la probabilidad de falla es la misma para cada ensayo. la función de densidad discreta o función de cuantía está definida por

 p es la probabilidad de falla para cada ensayo; i  es el número de fallas en los k  ensayos. La

función de distribución acumulativa está dado por

6

2.2 La distribución de Poisson Esta es otra distribución utilizada en confiabilidad cuando uno está interesado en la ocurrencia de un número de eventos que son del mismo tipo. la ocurrencia de cada evento es denotado por un punto en la escala de tiempo, donde cada evento representa una falla. la función de distribución está definida por

donde l es la constante de falla (o razón de falla), t   es el tiempo. la función de distribución acumulativa es

2.3 La distribución exponencial Esta es la distribución más ampliamente utilizada en confiabilidad en ingeniería, debido a que muchos procesos en ingeniería muestran una razón constante de riesgo durante su vida útil. Además es analíticamente manejable en el análisis de confiabilidad. la función de densidad continua está definida por

l es la razón constante de falla por unidad de tiempo. Su función de distribución acumulativa es

No resulta complicado demostrar que si T   es una variable aleatoria que sigue esta densidad entonces su esperanza es

7

2.4 la distribución de Rayleigh Esta distribución es usada en trabajos de confiabilidad asociados a problemas en teoría del sonido. Su función de densidad está dada por

La función de distribución acumulada está dada por

Si T   es una variable aleatoria que sigue esta ley de probabilidad se puede demostrar que su esperanza es

Siendo G ( ) la función gamma definida por

2.5 La distribución de Weibull Esta distribución puede ser usada para representar varios fenómenos físicos. Su función de densidad está dada por

donde b  y q son los parámetros de forma y escala, respectivamente. La función de distribución acumulativa es como sigue

8

Si T   es una variable aleatoria que sigue esta función de probabilidad, entonces su esperanza es

Observemos que cuando b = 2, caemos en la distribución de Rayleigh.

2.6 La distribución general Esta distribución puede ser usada para representa la función de riesgo "bañera". daremos esta vez primero la función de distribución:

donde k   tiene valores entre 0 y 1 y el resto de los parámetros son todos positivos, y por supuesto t  > 0. la función de densidad se puede obtener por derivación.

2.7 La distribución normal En los estudios de confiabilidad también es frecuente encontrar tiempos de vida útil que admiten una distribución normal. Como sabemos su densidad es

Modelos para la razón de riesgo La función razón de riesgo es fundamental en teoría de la confiabilidad, y conforme a la definición que dimos en la primera sección está razón depende del modelo de densidad que estemos utilizando. Habíamos definido la función razón de r iesgo como el cociente

9

siendo f( t ) y F( t ) la función de densidad y de distribución respectivamente. Sin embargo rigurosamente hablando, tiene un sentido más intuitivo su definición conceptual como sigue,

Siendo T la variable aleatoria que indica el tiempo de funcionamiento del ítem bajo estudio. No resulta complicado demostrar que esta definición es equivalente a la anterior. De tal manera que el valor l(t)Dt es aproximadamente la probabilidad de que el ítem siga funcionando durante el intervalo de tiempo ( t  , t  + Dt ) dado que ha funcionado sin falla hasta el tiempo t .

3.1 Distribución exponencial La función de razón de riesgo asociada a esta distribución es

y esto significa que la razón de riesgo de una exponencial es constante, y se le llama razón de falla.

3.2 Distribución de Rayleigh La función de riesgo asociada a esta distribución está dada por

Y este modelo está indicando que la función razón de riesgo crece linealmente con el tiempo.

10

3.2 Distribución de Weibull Conforme a la densidad de Weibull y a su función de distribución, que está dada por

la función razón de riesgo está definida por

Se puede observar que esta razón de riesgo tiene la propiedad de que para los parámetros de forma b =1 y b = 2 son corresponden a la razón de riesgo exponencial y de Rayleigh, respectivamente.

3.3 Distribución general No resulta muy complicado demostrar que la función de razón de riesgo asociada a esta distribución es

También se puede verificar que para valores adecuados de sus parámetros, se pueden obtener las funciones de razón de riesgo para exponencial, Weibull y Rayleigh.

3.4 Distribución normal Finalmente, entregamos otra función de razón de riesgo que es frecuente en los procesos de confiabilidad. El modelo asociado a la densidad normal es

11

Ecuaciones diferenciales: aplicación de una cadena de Markov Supongamos que un sistema puede estar en dos estados respecto de su funcionamiento: sin falla (estado 0), o con falla (estado 1). Supongamos que la probabilidad de que el sistema falle durante un intervalo de tiempo Dt es proporcional a esa longitud de tiempo, esto es lDt, de tal manera que la probabilidad de que no falle en ese intervalo de tiempo Dt será de 1 - lDt. La situación dinámica se puede esquematizar mediante el siguiente grafo markoviano (nota; se supone que toda vez que el sistema falla deja de funcionar, de tal manera que el estado 1 es absorvente)

De manera que podemos considerar este proceso como una cadena de Markov en tiempo discreto, con unidad de tiempo Dt. De manera que si definimos por X n  el estado de la variable para el n Dt tiempo, se tiene el siguiente sistema

La matriz de diseño acepta la siguiente descomposición

en cualquier caso no resulta para nada complicado (tarde tres días en darme cuenta de esta sencillez) de que

12

de modo que si podemos concluir que

en el entendido de que es claro que

Y como hemos considerado n  intervalos de tiempo de longitud D t , hacemos t  = n Dt , y reemplazamos en la solución encontrada, entonces tenemos que

Y puesto que en rigor el índice n indica n veces Dt, lo que se tiene es la variable  X t,  y ahora para un n suficientemente grande y Dt   suficientemente pequeño, tenemos determinado el índice t , podemos concluir que

y por lo tanto

Evidentemente lo que hemos hecho es resolver un problema de ecuaciones diferenciales mediante cadenas de Markov. ¿Cuáles son estas ecuaciones diferenciales? Pues no deje de ver la próxima sesión... 13

Ecuaciones diferenciales: aplicación de una cadena de Markov Consideremos el mismo problema de la sección anterior, cuya dinámica está determinada por el grafo markoviano siguiente

Definamos la colección de variables aleatorias

donde  X ( t  ) toma valores en los estado {0, 1}, indicando el 0 no falla y 1 el estado de falla, y de esta manera nuestro objetivo es encontrar las siguientes probabilidades

Vamos a iniciar nuestro estudio del estado de falla o no falla en el intervalo (0, t]. De modo que no resulta complicado convencerse que

entendiendo que la probabilidad de no falla son independiente para intervalos no traslapados, es decir que la probabilidad de no falla en el intervalo [0 , t ) es independiente de la no falla en el intervalo [t, t + Dt). Sin embargo, si la falla ocurre en el intervalo (0, t], entonces el proceso termina allí (estado absorvente), y en consecuencia tenemos la siguiente ecuación

14

De manera que estas dos ecuaciones más la probabilidad infinitesimal, nos conduce a las siguientes ecuaciones

y entonces

tendiendo Dt hacía cero nos queda el sistema de ecuaciones diferenciales

Considerando las condiciones iniciales obvias, esto es P 0(0) = 1 y P1(0) = 0, este sistema es de fácil resolución, y nos conduce a la misma solución dada en la sección anterior, esto es

15

ANÁLISIS DE DATOS DE FALLA Los datos de falla son la espina dorsal de la teoría de la confiabilidad toda vez que ellos entregan invaluable información para la administración, diseño e ingeniería de la confiabilidad. En efecto, los datos de falla son una prueba más del diseño de confiabilidad que se ha hecho sobre un determinado sistema, como a la vez la propia evaluación, y, en un proceso de retroalimentación, es la información crucial para la generación de nuevos diseños de confiabilidad del sistema. Suponiendo que se tiene un buen plan de recogida de datos, estos datos deben ser analizados en base a dos pilares, la teoría matemática y la teoría estadística. Y este es el objetivo de las siguientes sesiones. Esto es, entregar herramientas matemáticas y estadísticas para el análisis de los datos de falla. Por lo general, salvo que se indique lo contrario, entenderemos como datos de falla de un determinado sistema (producto, equipo, unidad muestral) al tiempo en que el sistema falló. En general los datos de falla, o el análisis sobre las distribuciones de falla están asociados al tiempo, pero eso no siempre debe ser así, de hecho daremos un ejemplo más adelante en que la variable asociada a la falla no es el tiempo. E s timación de la función de ries g o.

Vamos a entregar una metodología para el tratamiento de los datos correspondientes a los tiempos de fallas. Recordemos la definición de función de razón de riesgo:

siendo f(t) y F(t) las funciones de densidad y distribución, respectivamente. En base a esta función, definimos la función de riesgo acumulada como

Esta sencilla igualdad nos permitirá determinar una línea recta a fin de estimar los parámetros que caracterizan a la función de distribución del tiempo de falla. Como antes iremos describiendo el método para los diversos modelos clásicos que hemos estudiado. Se puede demostrar sin mucha dificultad de que 16

de tal manera que conociendo una y solo una de las cinco funciones f(t), F(t), R(t), z(t) y zc(t) se conocen las cuatros restantes. Vamos a ver la manera de estimar la función de riesgo acumulada desde la metodología de la estadística descriptiva. Supongamos que hemos realizado el estudio descriptivo de n artículos o unidades muestrales de la misma clase. Y supongamos que las fallas ocurrieron en los siguientes tiempos que están ordenados: t 1 < t2 < . . .< tk Esto significa que en el intervalo de tiempo (0, t 1] hubo n1 fallas, en el intervalo (t1, t 2] hubo n2 fallas, hasta llegar el k-ésimo intervalo (t k-1, tk] en que hubo nk fallas (*), de manera que n1 + n2 + ... + nk = n. Haciendo la consabida tabla de frecuencias, tenemos que Tiempo de falla

frecuencias

frec rel

frec acum

frec acum rel.

0 - t1

n1

n1 / n

n1

n1 / n

t1 - t2

n2

n2 / n

n1 + n2

n1 + n2 / n

...

...

...

...

...

tk-1 - tk

nk

nk / n

n1 + ... + nk

(n1+...+nk) / n

De manera que vamos a definir consecuentemente la función de razón de riesgo como

entendiendo que F( t

i - 1 )

es la distribución empírica acumulada relativa correspondiente al i

- 1 intervalo de clase, de modo que la razón de riesgo asociada a cada valor de t i   queda como

Con estos resultados estamos en condiciones de diseñar un método para la estimación de la función de riesgo. 17

LA FUNCIÓN DE RIESGO ACUMULADA Y LOS MODELOS DE PROBABILIDAD DE FALLA EL MODELO EXPONENCIAL la función de razón de falla de una distribución exponencial sabemos que es

entonces la distribución acumulada para esta función es

de manera que si despejamos la variable t, nos queda

de manera que el tiempo queda en función de la función acumulada de riesgo, donde

=1

/ . Y esta última ecuación es una línea recta que pasa por el origen y que tiene pendiente . De esta forma, si la variable t la identificamos con los valores que puede tomar la variable aleatoria T que describe los tiempos de falla de un determinado sistema y que se distribuye según una exponencial de parámetro

, entonces la relación entre estos tiempos y la

"estimación de la función de riesgo acumulada" debería ser "una línea recta". Y en este caso la estimación del parámetro

se obtiene por la estimación del parámetro , mediante

la ecuación

donde

18

Gráficamente, se tiene la situación siguiente

En definitiva, si sospechamos que los tiempos de falla de un sistema sigue una distribución exponencial (y a la cual desconocemos el parámetro) entonces los tiempos de falla y la función de riesgo acumulada estimada deben seguir aproximadamente una línea recta como la indicada en la gráfica anterior, y donde la estimación del parámetro

=1/

se

consigue en el valor de z c = 1. este procedimiento se sigue para cualquier otro modelo de probabilidad de falla.

EL MODELO DE WEIBULL Ya sabemos que la función de riesgo para una distribución de Weibull está dado por

de manera que la función de riesgo acumulada es

Despejando t en función de z c, nos queda

19

tomado logaritmo, obtenemos la relación

De manera que obtenemos nuevamente una línea recta con pendiente 1 / b e intercepto en ln . esto significa que si T es una variable aleatoria que indica los tiempos de falla según una distribución de Weibull, la relación entre el logaritmo natural de los tiempos de falla observados deberá seguir un modelo lineal respecto del logaritmo natural de la función de riesgo acumulada estimada.

Nota: Podemos observar hasta este punto que descubrir si la distribución de los tiempos de falla de un determinado sistema sigue una distribución exponencial o una distribución de Weibull, es equivalente a decidir cuál es el mejor modelo que se ajusta a los valores observados (ti, zc(ti); i = 1, ..., n), siendo los modelos propuestos

Y esto se puede conseguir mediante la técnica de los mínimos cuadrados. En la próxima sección veremos un ejemplo.

Ejemplo de ajuste de distribución para tiempos de fallas. Supongamos que a partir del tiempo t = 0 se se prueban 16 unidades de un tipo de sistema y se contabiliza el tiempo de falla o en su defecto su tiempo de operación hasta que el equipo fue retirado del control de prueba por otra razón diferente a la falla, y este último caso el tiempo de retiro (o pérdida de la información) irá acompañado del supraíndice ª, y se llama tiempo de censura (por la derecha, ya veremos la censura por la izquierda). En cualquier caso el tiempo de censura por la derecha es relevante porque indica que hasta ese tiempo el sistema no falló.

20

Tiempos

de

Unidad

falla y tiempos



censurados (hrs.)

1

14092ª

2

3973

3

2037

4

360

5

628

6

3279

7

2965

8

837

9

79

10

13890ª

11

184

12

13906ª

13

499

14

134

15

10012

16

3439ª

Vamos a indicar la manera de "tabular" estos datos a objeto de estimar la función de riesgo acumulada en concomitancia con lo indicado en la sección 6, donde se indicaba que la razón de riesgo estimada es:

(i) En primer lugar se ordenan los tiempos de falla en orden ascendente, considerando los tiempos de censura; (ii) una vez ordenados estos tiempos se etiquetan en una segunda columna con 0 y 1 conforme el tiempo sea de falla o censurado, respectivamente. En una tercera columna se asigna el valor de su rango, esto es al menor tiempo de falla se le asigna el valor 16 (el número de unidades que son controladas), al segundo menor tiempo 21

de falla se le asigna el rango de 15, y así sucesivamente. Notemos que en este caso los tiempos de fallas son todos distintos, de tal manera que existe uno y solo un equipo que falla asociado al tiempo de falla, esto es que la frecuencia de falla de un equipo asociado al tiempo de falla t i es ni = 1; (iii) de esta manera en una cuarta columna podemos calcular la razón de riesgo para cada tiempo de falla como r ( t i ) = 1 / rango de t i

que es equivalente a la fórmula

(iv) finalmente, calculamos en una quinta columna la razón de riesgo acumulada. En las columnas 4 y 5 no se realiza cómputo alguno para los tiempos censurados. La tabla debería lucir de la siguiente forma tiempos censura rango razón de riesgo riesgo acum 79

0

16

0,063

0,063

134

0

15

0,067

0,129

184

0

14

0,071

0,201

360

0

13

0,077

0,278

499

0

12

0,083

0,452

628

0

11

0,091

0,452

837

1

10

---

---

2037

0

9

0,111

0,563

2965

0

8

0,125

0,688

3279

0

7

0,143

0,831

3439

1

6

---

---

3973

0

5

0,200

1,031

10012

0

4

0,250

1,281

13890

1

3

---

---

13906

1

2

---

---

14092

1

1

22

Observemos que con esta tabla tenemos los pares de calores (t, z c). Ahora si "sospechamos" o planteamos la hipótesis de trabajo que los tiempos de falla siguen una distribución, por ejemplo, de Weibull, debemos acudir al análisis efectuado en la sección anterior donde se estableció que la relación entre t y z c bajo una distribución de Weibull está dada por

De manera tal que aplicando logaritmo natural a t y z c, nos queda la siguiente nube de puntos ln(tiempos)

ln(riesg. Acum)

4,36944785 -2,773 4,8978398

-2,047

5,21493576 -1,606 5,88610403 -1,282 6,2126061

-0,795

6,44254017 -0,795 ---

---

7,61923342 -0,575 7,99463231 -0,374 8,09529378 -0,185

8,28727676 0,030 9,21153965 0,247 ---

---

---

---

---

---

Y es sobre este conjunto de puntos que ajustamos una recta mediante la técnica de mínimos cuadrados, y esta es

23

De modo que esta recta nos indica que 1 / b = 1.6429, y ln ( q ) = 8.2648, lo que nos da una estimación para el parámetro de forma b = 0.6089, y el parámetro de escala q = 3884.69. Finalmente se puede notar que la esperanza para esta distribución estimada es qG( 1 + 1 / b ) = 5737.96 (horas)

Ajuste de distribución a datos de tiempos de fallas: uso de software MINITAB Supongamos que tenemos los mismos tiempos de fallas con datos censurados, de la sección anterior, en una planilla del MINITAB, como se indica a continuación...

24

En la columna "Tiempos" se encuentran ya ordenados (no es estrictamente necesario) tanto los tiempos de fallas como los censurados. La columna "Censura" etiqueta con 1 a los tiempos de censura a la derecha, y con 0 si son efectivamente tiempos de fallas. Ahora seleccionamos el siguiente menú:

 Al optar por este menú, aparecerá la siguiente caja de diálogo...

Lo que se debe hacer es simplemente "traspasar" la columna Tiempos al sector Variables, y después optar por la opción Censor... Aquí aparecerá otra caja de diálogo como sigue

25

En este caso se "traspasa" la columna Censura  y se establece en la caja Censoring value que precisamente el valor de "1" es el que determina que tiempos están censurados por la derecha. Luego aceptando y eligiendo convenientemente los resultados de salida obtendremos

Observemos que en el recuadro de la derecha aparecen los valores estimados de los parámetros de forma y de escala, y que no difieren sustancialmente de los que habíamos calculado en forma "descriptiva".

26

Otros resultados que se pueden obtener el MINITAB es el siguiente

Indicando con esto las principales medidas de posición, media y dispersión, con sus respectivos errores estándar e intervalos de confianza, al 95%, para cada parámetro.

Otros estadísticos para ajuste de distribución a tiempos de fallas En este tiempo, en virtud del desarrollo de los computadores, son accesibles una serie de estadísticos para realizar la dócima de hipótesis si una determinada distribución se ajusta o no a los datos. Estos estadísticos para la docima, aproximadamente unos 30 años atrás, pertenecían al campo de la "estadística avanzada" toda vez que su aplicación real y de poca frecuencia era costosa, puesto que el computador, como se conocía el computador entonces hace treinta años atrás, solo era accesible a los investigadores que contaban con los medios para su utilización. De manera que el estudio de tal o cual estadístico para la dócima de hipótesis de ajuste de distribución, tenía importancia para el estadístico matemático desde el punto de vista teórico. En la actualidad, resulta imprudente sistematizar la enseñanza teórica de una "técnica de ajuste" a una determinada distribución en un curso de Análisis de Confiabilidad, toda vez que la utilización de tal o cual "ajuste" está ampliamente difundida en cualquier paquete o software estadístico. Con esto no se quiere decir que el estudiante de las matemática estadística no debe saber los fundamentos y principios teóricos de estos, sin embargo, en la distribución del tiempo de enseñanza aprendizaje, digamos con más precisión, enseñar los fundamentos teóricos de los diez o más "pruebas de ajuste" que trae consigo cualquier paquete estadístico, no permitirá, paradójicamente, la aplicación de la teoría de la estadística matemática en lo que respecta al uso del Análisis de Confiabilidad. Con esto queremos decir que los métodos de ajuste de distribución lo confiaremos simplemente al 27

área de estudio de la Estadística Inferencial. A modo de ejemplo, vamos a mostrar una simple página del Statgraphics en que resuelve un problema de ajuste, que perfectamente podría llevarnos unas cuatro horas en la justificación matemática de todas las pruebas o dócimas utilizadas para tal ajuste. Se tienen los siguientes datos de tiempos de fallas de un determinado artículo electrónico medido en horas:

Vamos a docimar si estos datos se ajustan a una distribución exponencia l, utilizando el software Statgraphics. Se muestran los resultados de salida:

Resumen del Análisis Datos: Tiempo fallas 25 valores comprendidos desde 5,0 hasta 351,0 Distribución exponencial ajustada: media = 137,6

28

Dado que p-valor más pequeño de los tests realizados es superior o igual a 0.10, no podemos rechazar que Tiempo fallas proceda de una distribución exponencial con un nivel de confianza de al menos un 90%. Un análisis gráfico de ajuste a una exponencial para los mismos datos, esta vez en el software MINITAB, nos entrega el siguiente resultado:

29

Y para un ajuste a una exponencial, mediante la técnica P-P en el software SPSS, tenemos el siguiente resultado. Distribución contrastada: Exponencial Fórmula de estimación de la proporción utilizada: Blom Rango asignado a empates: Media Para variable TIEMPO_F ... Parámetro de la distribución exponencial estimado: escala = ,00726744

No deja de ser curioso que estos tres paquetes, que sin duda son los más frecuentemente utilizados, aplican diferentes técnicas de ajuste. Dejaremos, por lo menos en este curso de confiabilidad, que las técnicas de ajuste sean vistas en un curso de estadística Inferencial, nosotros simplemente haremos la exigencia de utilizarlas correctamente.

30

ESTIMACIÓN DE PARÁMETROS: MÁXIMA VEROSIMILITUD Toda vez que se ha establecido la ley de densidad que regula los datos de falla, asoma el problema de determinar los parámetros de la función de densidad. El método que estudiaremos aquí es uno de los más clásicos y frecuentes: Estimación de máxima verosimilitud. Y su desarrollo es en extremo sencillo. Supongamos que T 1, T2, ..., Tn son variables aleatorias independientes que denotan, cada una de ellas, el tiempo de falla de n sistemas del mismo tipo, y cada una de estas variables se rige por la misma ley de densidad f(t, q), donde el parámetro q es desconocido, y donde q puede ser un vector de parámetros, esto es q = (q 1, ..., qp). De esta forma, se tiene que la distribución conjunta del vector aleatorio (T1, T2, ..., Tn) tiene la ley de densidad L(t1. t2, ..., tn, q) = f(t1, q) f(t2, q) ... f(tn, q)

(1)

que llamaremos función de verosimilitud. Observemos que toda vez que ocurra una "trayectoria" (o realización) esto es T 1 = t1, T2 = t2, ..., Tn = t n, la expresión (1) es el peso de esta trayectoria, y que ahora será función exclusivamente del vector de parámetros q. Un criterio razonable y conservador para determinar q es que la función (1) tome su máximo valor permisible. Dicho de otra forma, de todos los valores reales que puede tomar la función de verosimilitud (1), ¿qué valor le asignamos?. Simplemente le asignamos el valor máximo de L(t 1. t2, ..., tn, q), y esto significa encontrar un valor de q que maximice a la función de verosimilitud (1). De tal forma entonces, que el "estimador máximo verosímil" de q estará dado por

donde hemos introducido la notación L(t 1. t2, ..., tn, q) = L(q). Encontrar el máximo de L(q) es simplemente un problema que pertenece al cálculo de derivada. En efecto, debemos encontrar valores q i que satisfacen las siguientes ecuaciones 31

y de aquel conjunto de soluciones que satisfacen estas ecuaciones identificamos el valor máximo para . Por otro lado, notemos que

de tal manera que encontrar un máximo para L(q) es equivalente a encontrar un máximo para la función

Y por lo general, esta última expresión es más fácil analíticamente de ser manejable en el cálculo de las derivadas. De otra forma, los candidatos a máximos están en la solución de los sistemas

Ejercicio: Calcule los estimadores máximo verosímil para tiempos de falla que se distribuyen según la ley de densidad exponencial, Weibull y normal.

32

TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (1) Consideremos una función clásica de riesgo tipo "bañera", como se muestra en la figura siguiente:

Esta función de riesgo tiene una fácil interpretación. La relación entre la función de confiabilidad R(t) y la de riesgo (t), está dada por

Supongamos que T es el tiempo de falla de un sistema con ley de densidad de probabilidad f(t), entonces tenemos el siguiente torema, Teorema.

Ejemplo: Suponga que la razón de riesgo de un microprocesador es constante la confiabilidad del microprocesador, su tiempo medio de f alla. Utilizando

33

. Calcule

tenemos que

Teorema. Si R(s) es la transformada de Laplace de la función de confiabilidad R(t), entonces

Ejemplo. Suponga que la razón de falla de un automóvil es constante igual a 0,0004 fallas por hora. Calcule la confiabilidad del automóvil para una misión de 15 horas, y su tiempo medio de falla.

REDES DE CONFIABILIDAD Un sistema puede tener varias configuraciones en relación a su análisis de confiabilidad. En esta sección presentaremos las configuraciones más usuales.

Redes en serie Esta es la configuración más simple que puede ocurrir en un sistema, y es como la describe el siguiente diagrama de bloques en series

Cada bloque representa una componente unitaria (no necesariamente del mismo tipo que las restantes). Si una de las componentes falla, el sistema completo falla o colapsa. Sea E i el evento asociado a la proposición de que "la componente funciona exitosamente" (que sencillamente funciona para lo que fue elaborada), luego la función de confiabilidad está dada por Rs = Pr { E1 E2 ... En } 34

donde Pr es la probabilidad de funcionamiento del sistema completo. Supongamos ahora que los eventos E i son independientes, de tal forma que se concluye que la probabilidad conjunta es el producto de las probabilidades marginales, esto es Rs = Pr { E1 } Pr { E2 } ... Pr { En } de forma más compacta

Observemos que esta función de confiabilidad está calculada de forma general, de tal forma que no se ve en forma explícita su dependencia del tiempo como hemos estudiado la función de confiabilidad hasta ahora. En efecto, la dependencia del tiempo está establecida en forma implícita en la naturaleza de los sucesos E i. Es en estos eventos donde se debe declarar la variable tiempo, por ejemplo: Ei = Ei( t ) = { la componente i funciona a lo menos hasta el tiempo t } de tal forma que si T i es la variable de tiempo de falla asociado a la componente i, y si T S es el tiempo de falla asociado al sistema general, entonces Rs(t) = Pr { t < TS } = Pr { t < T1 } Pr { t < T2 } ... Pr { t < Tn } Continuando con el planteamiento general, sea R i  la función de confiabilidad de la componente i, esto es Ri = Pr { Ei } entonces

35

Problema. Observe que la confiabilidad del sistema depende (también) de n, número de componentes en serie del sistema. Demuestre que

Supongamos que cada componente i tiene una razón de riesgo constante

i,

de modo que

de esta forma entonces, la confiabilidad del sistema está dado por

Entonces si T S es el tiempo de falla del sistema, el tiempo medio de falla será

 Además, del valor de la función de confiabilidad del sistema

S(t),

se desprende que la

función de razón de riesgo del sistema es constante y está dada por

Y en este caso significa que, si al sistema le agregamos más componentes en serie para su funcionamiento, con riesgo constante por componente, el riesgo total del sistema se incrementa en el riesgo agregado (un razonamiento tan simple que muchas veces es olvidado y es lo que producen las catástrofes o colapsos para este tipo de sistemas, sobre todo en sistemas en serie tipo "maestro chasquilla" o agregación de componentes para que un sistema funcione)

Problema 1. Un auto de carrera tiene cuatro llantas cuya fabricación en su calidad es 36

independiente una del resto. La razón de falla de cada llanta es constante y es de 0.0004 fallas por hora. Obviamente cuando una llanta revienta el auto no puede movilizarse. Calcule lo siguiente: a) la función de confiabilidad del auto para una misión de 15 horas, respecto de las llantas b) la razón de falla del auto respecto de sus llantas c) el tiempo medio de falla del auto respecto de sus llantas.

TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (2) Redes en paralelo En esta configuración al menos una unidad debe operar exitosamente para que el sistema siga operando. Observe el diagrama siguiente

Si Ei denota el suceso de que la unidad funcione, entonces E ic denotará el evento de que la componente i fallé. Si denotamos por F S la probabilidad de que el sistema falle, se tiene que

 Ahora si las componentes son independientes, entonces

37

siendo F i   la probabilidad de falla de la componente i. Observemos que F s es la probabilidad de que el sistema falle, que es equivalente a la probabilidad de que fallen las n componentes, entonces 1 - F s  es la función de confiabilidad, esto es que el sistema funcione, de otra forma la función de confiabilidad, en red paralela, es la probabilidad de que "al menos una funcione", esto es

pero como

entonces

que es la probabilidad de confiabilidad de que un sistema en paralelo con n componentes funcione. Nota: En muchas pruebas periciales, sobre todo en el ámbito forense, se tiene que la expresión de confiabilidad anterior es realmente la "potencia de la prueba pericial". Imagínese un hombre acusado de un delito, que ha dejado n huellas de restos biológicos altamente identificables mediante n pruebas, si el hombre acusado es efectivamente el que cometió el delito, entonces la n pruebas deberán indicar n coincidencias de su organismo con las n huellas (siempre que estas n huellas sean independientes una de otras). No obstante existe la duda de si un hombre inocente ¿pueden coincidir su organismo con las n huellas dejadas? El razonamiento es como sigue, si un hombre es inocente entonces por lo menos en una huella no deberá haber coincidencia con su sistema orgánico, es decir en a lo menos en una prueba deberá haber un fallo, y esta probabilidad es ¡ R S  !. En la actualidad, quien redacta estos apuntes junto a otros biólogos, realizó un trabajo sobre la "confiabilidad o potencia de la prueba en n marcadores de polimorfismo en el ADN", que son las verdaderas huellas digitales que posee nuestro ADN, en problemas de paternidad. En efecto, en las pruebas de paternidad se analizan 13 huellas (13 marcadores genéticos), 38

y se utiliza como la potencia de la prueba, esto es la probabilidad de que un hombre falle en al menos una prueba dado que no es el padre verdadero, la expresión R S  (que la legislación chilena pide que tenga un valor de 0,9999), no obstante que aceptan que ¡una persona acusada falle en a lo más dos marcadores!. De esta forma la potencia de la prueba o confiabilidad de la prueba es diferente. ¿Cuál es esta confiabilidad? Pues eso es lo que deberá usted responder en una próxima prueba. En cualquier caso este resultado será expuesto el día miércoles 27 de noviembre en la XXXVII Reunión Anual de la Sociedad Genética de Chile. Viña del Mar. Resumen.

Ejercicio:  Suponga un sistema con n componentes configuradas en paralelo, y cada componente tiene un tiempo de falla exponencial de parámetro

i.

Calcule la función de

confiabilidad, el tiempo medio de falla del sistema, y la función de razón de riesgo del sistema.

TEORÍA DE LA CONFIABILIDAD: EVALUACIÓN BÁSICA DE CONFIABILIDAD (3) REDES (R, N) Se trata de un sistema con n componentes independientes, de tal forma que el sistema funciona toda vez que funcionen al menos r componentes. Es lo que se podría decir un sistema redundante. Si suponemos que la función de confiabilidad de cada componente es la misma, digamos R, y además las componentes son independientes, entonces la confiabilidad del sistema completo, R(r,n), se obtiene fácilmente, y viene dada por

Para un sistema de este tipo donde cada componente tengo una razón de riesgo constante , esto es cuando R = exp { -

t }, entonces

39

y entonces el tiempo medio de falla para el sistema completo es

La complejidad del problema viene cuando las componentes del sistema, manteniendo su independencia, no tienen la misma función de densidad de probabilidad de f alla, y por ende cada componente tiene distinta función de confiabilidad. No obstante, la función de confiabilidad en tal situación se puede deducir del siguiente trabajo sobre "confiabilidad en los marcadores genéticos": aquí. Los cálculos de razón de riesgo y tiempo esperado de falla son relativamente sencillos para el caso en que las componentes sea independientes e idénticamente distribuidas, sin embargo no son tan sencillos los cálculos para el caso en que las componentes sean independientes pero sus funciones de confiabilidad no necesariamente sean iguales. Suponga que

i(t)

es la función de confiabilidad para la componente i-ésima, calcule

entonces la función de confiabilidad R(t) para un sistema (r, n), y además el tiempo medio de falla y la función de riesgo.

REDUNDANCIA EN ESPERA Supongamos un sistema que opera con una componente, sin embargo hay m componentes que están en espera listo para reemplazar a la componente que está operando en caso de falla. De otra forma el sistema tiene (m + 1) componentes, y toda vez que una componente falla un switch automático opera una de las componentes en espera (stand by) para que el sistema siga funcionando. Evidentemente el sistema dejará de funciones si fallan todas las componentes. Para intentar resolver el problema inicialmente, supongamos que las componentes son independientes y cada componente tiene función de confiabilidad R i(t). Y 40

el objetivo es encontrar la confiabilidad del sistema. Observemos el siguiente esquema:

Si TS es el tiempo de falla del sistema, y las funciones de confiabilidad de cada componente están dadas por R i(t), entonces la función RS(t) de confiabilidad está dada por

Utilice este resultado para los casos en que las componentes se distribuyen idénticamente según las distribuciones clásicas que hemos estudiado hasta ahora.

PROCESOS DE NACIMIENTO PURO: APLICACIÓN A LA CONFIABILIDAD Vamos a estudiar sistemas que eventualmente pueden pasar por etapas de "degradación" antes de colapsar definitivamente mediante cadenas de markov, recordemos que esta situación se vio incipientemente en la sección 12.  Pero esta vez por razones analíticas consideraremos los estados infinitos para así poder establecer las ecuaciones diferenciales que regulan el sistema, para posteriormente truncar el proceso en un estado finito absorvente, que significará el estado de falla del sistema. Conceptualmente será un proceso de Markov el cual solo podrá avanzar, o quedarse en el estado en que está, en tiempos infinitesimales. El mejor modelo que se adecua a este objetivo es el llamado proceso de nacimiento puro.

41

Proceso de nacimiento Puro Consideremos una sucesión de números positivos {

k}.

Se define un proceso de

nacimiento puro como un proceso de Markov que satisface los siguientes postulados:

 X ( t   ) denota el valor de estado que puede tomar el proceso en el tiempo t . En lo que

respecta a la teoría de confiabilidad el valor de estado denotará el estado de degradación en que incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos estados como etapas de degradación creciente, hasta llegar a un estado N que significará el estado de colapso, no obstante con el objeto de aplicar directamente la teoría de los procesos de nacimiento puro, consideraremos el espacio de estado infinito {0, 1, 2, ...}.

El término o1,k(h) y o2,k(h) son "infinitesimales" de orden h, esto es

Un ejemplo de función infinitesimal es o(h) = h 2. La función o(h) = h no es infinitesimal de orden h.  Además podemos definir

diciendo con esto que el proceso de Markov es estacionario., y estos valores corresponden a los valores del lado izquierdo de (i) y (ii), diciendo con esto además que las funciones 42

infinitesimales no dependen de t. Definamos

Teorema. El proceso de nacimiento puro satisface el siguiente sistema de ecuaciones diferenciales:

La demostración se deja como ejercicio: Se utiliza la ley de la probabilidad completa, la propiedad de Markov y el postulado (iii). La primera ecuación diferencial se puede resolver directamente, y esta es

Las restantes se calculan recurrentemente, y la expresión general está dada por

Tarea: haga las modificaciones pertinentes para detener el proceso en un estado absorvente N. Para asegura la validez del proceso en la resolución de las ecuaciones diferenciales que determinan Pn(t), esto es de que efectivamente

43

los valores

k deben

satisfacer la condición

Nacimiento puro: tiempos de espera, tiempos de falla Para un proceso de nacimiento puro, definamos T k como el tiempo entre el k - ésimo y (k + 1 ) - ésimo nacimiento; de modo que

De otra forma, los Tk son tiempos de estera entre nacimientos (interprételo como la llegada de una componente a reparación o complementariamente a la falla de una componente) De tal modo que

es el tiempo en el cual el k - ésimo nacimiento ocurre. En la sección anterior habíamos visto que P 0(t) = exp( -

0t

), de modo que

es decir T0  tiene una distribución exponencial de parámetro lo. De los postulados del proceso de nacimiento puro que los T k , k > 0, también tienen una distribución exponencial con parámetro

k,

y estos tiempos son mutuamente independientes. Los cálculos precisos

escapan de los objetivos de este curso, pero se puede demostrar que la función característica de S n está dada por

44

De modo que cuando

k

=

, se reconoce que Sn  tiene una distribución gamma de

parámetro n, y con esperanza n / .

El proceso de Yule El proceso de Yule es un ejemplo de proceso de nacimiento puro. Supongamos que cada miembro de una comunidad tiene una probabilidad h + o(h) de dar nacimiento a un nuevo miembro en un intervalo de tiempo de longitud h. Supongamos además que X(0) = N, es decir hay N miembros en la población. Suponiendo independencia y no interacción entre los miembros de la población, el teorema del binomio nos ayuda a establecer que

de modo que, en este caso, se tiene que

n =

n

Para el caso particular de que N = 1, el sistema de ecuaciones diferenciales de un proceso de nacimiento puro quedan como:

Utilizando las técnicas apropiadas, por ejemplo Transformada de Laplace, obtenemos el sistema de solución:

La generalización para el caso de que X(0) = N, con técnicas de la función generatriz de momento, se puede demostrar que las probabilidades vienen dadas por

45

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF