Teoria de La Confiabilidad

See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/268411762

Views 156 Downloads 8 File size 1MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/268411762

TEORÍA DE LA CONFIABILIDAD Article

CITATIONS

READS

0

128

1 author: Ana Luna University of the Pacific (Peru) 8 PUBLICATIONS 9 CITATIONS SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Power Demand Forecasting View project

Structural color View project

All content following this page was uploaded by Ana Luna on 26 April 2016. The user has requested enhancement of the downloaded file.

TEORÍA DE LA CONFIABILIDAD Ana Eugenia Luna

Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Departamento de Física

Febrero 2005

Índice

1. Introducción

1

2. La ley normal de falla

2

3. La ley exponencial de falla

7

4. La ley de fallas de Weibull

17

5. Confiabilidad de los sistemas

23

6. Discusión y Conclusiones

24

7. Referencias

26

Teoría de la Confiabilidad

Ana Eugenia Luna

Resumen La aparición y aplicación de nuevas tecnologías en la industria hace posible la fabricación de nuevos productos y elementos, generalmente electrónicos que aumentan la complejidad de los procesos industriales; este hecho trae como consecuencia el aumento de riesgos que influyen en la seguridad de toda la instalación. La confiabilidad y seguridad de dichas instalaciones puede ser estudiada a través de métodos probabilísticos por medio de la ley de fallas de sistemas o componentes que permite obtener técnicas de predicción que aseguran la calidad de los productos. Existen varias funciones de distribución que modelan el comportamiento de las fallas. En este trabajo se hace un estudio detallado de las distribuciones de uso más frecuente en la teoría de la confiabilidad, la distribución exponencial, la distribución normal o gaussiana y la distribución de Weibull.

1. Introducción

La teoría de la confiabilidad tiene sus cimientos en análisis meramente estadísticos y en leyes probabilísticas de fallas pues no existe un modelo determinista que prediga el tiempo en el cual un sistema falla. Es posible, sin embargo, aplicar un tratamiento estadístico que modele en forma realista el estudio de la confiabilidad de componentes o dispositivos que en condiciones de montaje y uso adecuado se encuentran en funcionamiento un tiempo determinado, t = 0. El tiempo para que ocurra la falla o duración, T, puede considerarse estadísticamente como la variable aleatoria continua con una función de distribución probabilística (fdp) f. Se define la confiabilidad de un componente o sistema, R(T), a la probabilidad de que dicho componente no falle durante el intervalo [0,t] o lo que es lo mismo a la probabilidad de que falle en un tiempo mayor que t. Siendo R(t) = P(T>t) y T la duración del componente. Si f(t) es la función de densidad de probabilidad (fdp), la confiabilidad puede expresarse como ∞

R ( t ) = ∫ f ( s ) ds 0

(1)

En términos de la función distribución acumulativa (fda) de f(t), F(t), la confiabilidad también se puede definir como: R(t) = 1-P(T ≤ t )=1-F(t)

(2)

La tasa de falla o función de riesgo Z es también un concepto muy usado en la teoría de la confiabilidad y representa la proporción de artículos que funcionan entre t y t + ∆ t de aquellos que aún funcionaban en el instante t. Su valor se puede calcular a partir de la siguiente expresión Z (t ) =

f (t )

(3)

R (t )

y determina unívocamente la fdp f. La elección de un modelo que represente los datos de fallas lo más fehacientemente posible, restringe la posibilidad de elección de cualquier fdp para T, es decir que el modelo matemático para la descripción de los fenómenos observables no es arbitrario.

2. La ley normal de falla

La conducta de algunos componentes puede describirse a través de la ley normal

de falla . Si T es la duración de un artículo, que obviamente vamos a considerar que es mayor o igual a cero, su fdp, también conocida como distribución de Gauss, está dada por f (t ) =

siendo f ( t ) ≥ 0 ,

− ∞ < t < ∞,

1 2p s



exp  −  

− ∞ < m < ∞,

2

1  t − m   2  s  

(4)



s

(desviación estandar ) > 0 .

Este modelo implica que la mayoría de los artículos fallan alrededor de un tiempo promedio de falla E(T) = m y el número de fallas disminuye simétricamente cuando T − m aumenta. Una ley normal de falla significa que alrededor del 95.44% de 

t−m



s

las fallas tienen lugar para los valores de t que satisfacen  − 2 < observa en la Fig. 1.

 < 2  como se 

0 ,9 5 4 4

t = µ - 2 σ

t = µ

t = µ + 2σ

Fig. 1: El área encerrada entre m − 2s y m + 2s representa alrededor del 94,44% de las fallas

Se puede ver que la distribución normal es simétrica, por lo tanto, la media, la mediana y la moda coinciden. Además la fdp normal no posee un parámetro que caracterice a la forma general, por esta razón la forma que posee de campana no cambia. El parámetro que indica la relación de aspecto de una fdp normal está dado por la desviación estándar, s ; a medida que este valor se incrementa, la fdp se desparrama del valor medio, se ensancha y su pico disminuye. Por el contrario, si el valor de s disminuye, el pico de la campana se vuelve más alto y además se angosta. (Fig. 2). Geométricamente, la desviación estándar, es la distancia entre el valor medio y el punto de inflexión de la fdp.

µ=100 σ=5

f(t)

0.06

µ=100 σ=15

0.03

0.00 80

120

Tiempo (t)

Fig. 2: Efecto de dos posibles valores del parámetro s normal.

en la función de distribución de probabilidades

La función confiabilidad de la ley normal de falla se puede hallar utilizando la ec. (1), ∞



t

t

 1  s − m 2   ds exp  −   2  s   2p s  

1

R ( t ) = ∫ f ( s ) ds = ∫

(5) Su valor no puede obtenerse a través de expresiones matemáticas cerradas sino vía el uso de tablas o evaluaciones numéricas.

Usando la función de distribución normal acumulativa tabulada f , t− m    s 

R (t ) = 1 − f 

(6)

es decir que, R(t) permite aclarar conceptualmente que para obtener una confiabilidad alta, el tiempo de operación debe ser considerablemente menor que m , es decir que la duración esperada (Fig. 3).

R(t)

R(t) = 0.5

t=µ t

Fig. 3: Función confiabilidad de la ley normal de falla

En muchos casos, es posible que desconozcamos los parámetros que caracterizan a la fdp normal. A continuación se presenta un método gráfico alternativo para hallarlos. Para una distribución normal, la función distribución acumulativa (fda), F(t) se define a partir de la siguiente expresión, t− m    s 

F(t) = f 

(7)

Por lo tanto, f

siendo f ( x ) =

1 2p

x

∫e



−1

( F ( t )) = −

m s

+

1 s

t

(8)

t2 2

dt .

−∞

Entonces, es posible considerar las siguientes variables que permitirán obtener una ec. lineal para f − 1 ( F ( t )) : y = f − ( F ( t )) 1

a= −

m

b=

s

1 s

(9)

⇒ y = a + bt .

Al graficar F(t), es decir, la probabilidad de que ocurra un fallo antes del instante t en función del tiempo, es posible estimar el valor de m

localizando el punto

correspondiente a t en el cual la F(t) es del 50%. Este hecho es posible gracias a que la distribución normal es simétrica, por lo tanto el área bajo la curva de la fdp desde − ∞ hasta m es 0,5 al igual que el área desde m hasta ∞ . Entonces el valor de m coincide con el punto en el cual la función confiabilidad R(t) es del 50%. Para estimar el valor de s , debemos recordar que el área bajo la fdp representa el 68,3%, esto es medida desde el valor de m hasta - s y s (Fig. 4). Por lo tanto la desviación estándar se puede obtener a partir de la siguiente expresión,

sˆ =

t ( R ( t ) = 84 ,15 %) − t ( R ( t ) = 15 ,85 %)

a partir del gráfico linealizado, intersecta el 84,15% y el 15,85%.

2

(10)

conociendo los valores de t en los cuales la línea

Este método alternativo para la estimación de los parámetros característicos de una fdp normal es fácil de aplicar cuando se conocen los tiempos en los cuales fallan ciertos componentes y sus respectivos porcentajes de falla.

1

68,3%

µ

2σ Fig. 4: El intervalo de confianza entre el 15,85% y el 84,15% representa el doble de la desviación estándar

Otro método que puede utilizarse para estimar los parámetros es el de cuadrados mínimos, en el cual se utilizan las siguientes ecuaciones (suponiendo que la incerteza de los valores graficados en el eje de las abscisas son ignorables): N

aˆ = y − bˆ x =

∑ yi

i =1

N

1

N

− bˆ

∑ xi

i =1

N

(11)

N

bˆ =

N

N

i =1

i =1

∑ xi ∑ y i

∑ xi y i −

N

i =1

N

N

2

∑ xi −

   ∑ xi   i =1 

(12)

N

i =1

yi = f

2

−1

[F (t i ) ]

(13)

xi = t i

(14)

Los valores de F ( t i ) se obtienen a partir de tablas que figuran en varios textos de estadística o por métodos numéricos. Finalmente, sˆ =

1 bˆ

(15)

y mˆ = − aˆ



(16)

La ley normal de falla representa un modelo apropiado para los componentes en los cuales la falla se debe a algunos efectos de desgaste. Una de las desventajas que posee la distribución normal para modelar fenómenos observables en la teoría de la confiabilidad es que existen tiempos de vida que se extienden a − ∞ , es decir a tiempos de falla negativos. Sin embargo, si la función de distribución normal posee un valor medio relativo relativamente alto y una desviación estándar relativamente pequeña, el tema de discusión para tiempos de falla negativos no presenta ningún problema. En otras palabras, la función normal, tiende rápidamente a cero lejos de su máximo. Esta distribución se utiliza, por ejemplo, para modelar los tiempos de vida de los cartuchos de impresión para computadoras.

1

3. La ley exponencial de falla

Otra de las leyes de falla aplicable al estudio de la confiabilidad de componentes que no están afectados todavía por problemas de vejez o desgaste es aquella que se describe a través de la distribución exponencial.

Los elementos y dispositivos con funciones primordiales de seguridad, además de ser idóneos ante unas exigencias del sistema, deben asegurar una correcta respuesta en el tiempo. Para ello es imprescindible establecer un programa de mantenimiento preventivo y predictivo que permita mantenerlos en buenas condiciones de uso, renovándolos antes de que su tasa de fallos sea inaceptable. Un modelo matemático para la probabilidad de fallo es definir la variable aleatoria como el tiempo durante el que el elemento funciona satisfactoriamente antes de que se produzca la falla. La función confiabilidad será entonces,

R ( t ) = P (T > t ) =

N i (t ) N0

N f (t )

= 1−

(17)

N0

siendo N i (t) el número de elementos en funcionamiento en el instante t, N 0 el número de elementos en funcionamiento inicial y N f (t) el número de elementos averiados hasta el momento t. (Se cumple N 0 = N f (t) + Ni (t)). Por lo tanto, recurriendo a la ec. (2), y haciendo la analogía con la ec. (17), la probabilidad de que ocurra un fallo antes del instante t es,

F (t ) =

N f (t )

(18)

N0

Suponiendo que un artículo funciona en el instante t y falla durante los siguientes ∆ t ( ∆ t > 0), entonces la probabilidad condicional de que se produzca una avería entre el momento t y t+ ∆ t puede escribirse de la siguiente manera,

P (t ≤ T ≤ t + ∆ t T > t ) =

F (t + ∆ t ) − F (t ) R (t )

=

R (t ) − R ( t + ∆ t ) R (t )

= a (t ) ∆ t

(19)

siendo a (t ) , la tasa de fallos. De la ec. (19) es posible hallar el valor de la función confiabilidad, 

t





0



R ( t ) = exp  − ∫ a ( t ) dt 

(20)

Recurriendo a la ec. (1), la función densidad de probabilidad, es decir, la probabilidad de que un dispositivo tenga una falla entre los instantes t y t + dt es

f (t ) = −

dR ( t )

(21)

dt

Analizando las ec. (19) y (21), se cumple que la probabilidad de producirse una avería en un elemento entre t y t + dt es igual a la probabilidad de que funcione hasta t por la probabilidad de que falle entre t y t + dt: f ( t ) = R ( t ) a ( t ) dt

(22)

En la Figura 5 se puede observar la representación gráfica de los parámetros característicos de la distribución exponencial más general:

2

R(t) F (t)

a (t )

R(t)

F(t)

a (t )

Fig. 5: Representación gráfica general de los parámetros de confiabilidad.

Analizando cuidadosamente la representación de la curva típica de la evolución de la tasa de fallos dependiente del tiempo (Fig. 6), también conocida como curva 2

bañera, se pueden distinguir tres etapas. La primera corresponde a los fallos iniciales (la

mortalidad

infantil

de

las

estadísticas

demográficas)

que

se

manifiestan

prematuramente y se caracteriza por una tasa decreciente, corresponde, generalmente, a la existencia de dispositivos defectuosos o instalados indebidamente con una tasa de fallos superior a la normal. La segunda etapa (la edad adulta) representa los fallos

normales y se presentan de forma aleatoria; su tasa es constante en el tiempo de vida del componente. La tercera y última etapa (la vejez) se atribuye a los fallos por desgaste donde se ha superado la vida prevista del componente; en este caso la tasa se caracteriza por un aumento significativo debido a la degradación. Este modelo, con algunas variantes, es válido para la mayoría de los componentes de un sistema tecnológico. Las fallas iniciales pueden eliminarse mediante pruebas previas a la operación, mientras que una política adecuada de reemplazos permite reducir las producidas al fin de la vida útil. La mayoría de las evaluaciones de confiabilidad se refieren al período en que prevalecen las fallas aleatorias. a (t ) x 10 -5

Fig. 6: Curva típica de evolución de la tasa de fallos.

El caso más sencillo para describir la ley exponencial es suponer que la tasa de fallas es constante, es decir que después de un tiempo de uso del artículo, la probabilidad de que falle no ha cambiado, hecho que se puede expresar a través de la siguiente función: Z(t)= a . En este modelo, claramente se está despreciando el efecto de desgaste. La fdp asociada con el tiempo de fallo T está dada por

f (t ) = a e − a t

t > 0, a > 0

(23)

En este caso particular, la distribución sólo requiere el conocimiento de un parámetro, la tasa de fallas a . Algunas de las características de la distribución exponencial de un parámetro son: •

3

A medida que a disminuye en valor, la distribución se extiende hacia el lado derecho y por el contrario, a medida que a aumenta en valor, la distribución se acerca al origen. (Fig. 7)



El parámetro de escala es

1 a

= m = s (siendo s la desviación estándar). Entonces, la

confiabilidad para un tiempo de duración t = m es siempre igual a 0,3679 o lo que es lo mismo a un 36,8%. Esto es así pues R ( t ) = e

−a t

= e

−a

1 a

= e

−1

= 0 ,368 . Este

hecho implica que la confiabilidad es relativamente baja pues sólo el 36,8% de los componentes en estudio, por ejemplo, sobrevivirán. •

La distribución no tiene parámetro de forma pues tiene una única forma, la exponencial; por lo tanto el único parámetro es la tasa de fallas.



La distribución comienza en t = 0, donde f (t = 0 ) = a ; a partir de allí, decrece exponencialmente y monótonamente a medida que t se incrementa. Además es convexa. Cuando t tiende a infinito, la función distribución de probabilidades tiende a cero, en consecuencia también tiende a cero la función confiabilidad R(t).

0.010

α = 0,01 0.008

0.006

f(t)



0.004

0.002

α = 0,005

0.000 0

100

200

Tiempo (t)

300

400

Fig. 7: Efecto de los posibles valores tomados por el parámetro a en la función distribución de probabilidad exponencial.

Si f tiene la forma expresada en la ec. (23), R(t) =1-F(t) = e − a t ⇒ Z ( t ) =

f (t ) R (t )

=a

(24)

La confiabilidad R(t) representa, en este caso, la probabilidad de que el dispositivo, caracterizado por una tasa de fallos constante, no se averíe durante el tiempo de funcionamiento t. Es importante destacar que la fórmula (24) se aplica a todos los elementos que han sufrido un uso adecuado que permita excluir los fallos iniciales característicos de la tasa de fallos. Además, aplicando la función de probabilidad condicional expresada en la ec. (19), se observa que la misma es independiente de t y sólo depende de ∆ t , es decir que el artículo en cuestión podrá ser considerado como si fuera nuevo mientras perdure su funcionamiento. Finalmente, es posible concluir que si T es una variable aleatoria continua que toma todos los valores no negativos, le corresponde una distribución exponencial si y sólo si tiene una tasa constante de fallas. Este modelo es aplicable, por ejemplo, a lámparas que pueden considerarse que funcionan como si fueran nuevas mientras funcionen y no se queme su resistencia. Las gráficas características de los parámetros de este caso particular de la ley 4

t

R(t)

f (t)

F(t)

exponencial de falla son

t

t

Fig. 8: Gráficas características de los parámetros de un caso particular de la ley exponencial de falla.

A partir de la representación gráfica de R(t), también conocida como curva de supervivencia, es posible definir el “tiempo medio hasta un fallo”. Matemáticamente se recurre a un cálculo estadístico para obtener una expectativa de este tiempo a partir de la siguiente expresión:



1

0

a

E (T ) = T = ∫ t f ( t ) dt =

= m

(25)

siendo T el tiempo que se espera que transcurra hasta un fallo y m el parámetro que describe completamente la confiabilidad de un dispositivo sujeto a fallos de tipo aleatorio. Se observa, entonces que el tiempo medio y la tasa de fallos son recíprocos, es decir que uno es el inverso del otro. Esto sólo es cierto para una distribución exponencial pues la mayoría del resto de las distribuciones no tiene una tasa de fallo constante. Entonces, R ( t ) = exp( − t / m ) proporciona la probabilidad de supervivencia del dispositivo para cualquier intervalo de tiempo comprendido dentro del ámbito de la vida útil del mismo. En el caso en que t = m/100, la confiabilidad es R = 0,99, es decir que funcionan 99 dispositivos y falla sólo 1. Por lo tanto, la calidad de funcionamiento de un cierto elemento vendrá dada por el tiempo que se espera que dicho elemento funcione de manera satisfactoria. A partir de la teoría previamente expuesta, es posible, calcular para un conjunto de dispositivos, por ejemplo válvulas, la tasa de fallos anual conociendo el número de elementos totales y aquellas que fallaron, también es posible conocer la probabilidad que tiene una de las válvulas de que falle antes de un determinado tiempo, es decir, F(t) o bien calcular la probabilidad de que la válvula esté en funcionamiento al cabo de un determinado tiempo, por ende debo hallar R(t). Otro parámetro posible de calcular es la probabilidad de que el tiempo de vida de la válvula esté comprendido entre dos tiempos distintos, para ello debo obtener la diferencia entre la probabilidad de que falle antes de uno de esos dos tiempos y el otro, es decir la diferencia de las confiabilidades de ambos períodos de tiempo. Por último se puede determinar un intervalo de vida con cierto nivel de confianza dado.

Otra ventaja que proporciona esta ley de fallas exponencial es que es posible estimar el tiempo de operación de un artículo o sistema conociendo el parámetro a e imponiendo R(t). Entonces dicho artículo será tan bueno como si fuera nuevo durante ese tiempo o edad para funcionar, independientemente de su historia previa. A esta propiedad característica de la función exponencial se la suele llamar “pérdida de memoria”. Fenómeno que no ocurría para le ley normal. Es importante destacar también que la confiabilidad de un dispositivo cualquiera es constante para períodos de utilización iguales si se eliminan los fallos iniciales, si el dispositivo ha sobrevivido al funcionamiento durante los períodos anteriores al considerado y si no se supera el límite de vida útil, más allá del cual la confiabilidad disminuye con mayor rapidez pues la tasa de fallos deja de ser constante y empieza a crecer significativamente. Supongamos ahora que la falla ocurre debido a factores externos aleatorios, por ejemplo una subida de tensión o a factores internos como una desintegración química, el tiempo de espera en una consulta sin cita previa o la vida de los vasos de vidrio en un bar. La ley de fallas exponencial puede mejorarse a través de la distribución de Poisson, es decir, para cualquier t fija, la variable aleatoria X t tiene una distribución de Poisson con parámetro a t . Para ello se supone que X t es el número de accidentes que ocurren en un intervalo de tiempo t>0. Se considera que la falla en dicho intervalo se produce si solo si al menos ocurre un accidente. Si T es la variable aleatoria que representa el tiempo para que ocurra la falla, entonces

4

F(t) = P(T ≤ t )=1-P(T>t)

(26)

Entonces, T> t si ningún accidente ocurre en [ 0, t ] y esto sucede si y sólo si X t = 0 . Por lo tanto, F(t) =1-P(X t = 0) = 1- e

−a t

(27)

que representa la fda de una ley exponencial de falla; físicamente la causa de las fallas implica una ley exponencial de falla. Si cada vez que aparece un accidente hay una probabilidad constante p de que éste no produzca fallas, entonces:



F (t ) = 1 −  e

−a t



1− e

−a t

+ (a t )e





k =0

−a t

(a t p )

p + (a t )

2

e

−a t

2!

2



p + ...  = 

k

k!

= 1− e

−a t a t p

e

= 1− e

(28)

− a (1 − p ) t

Por lo tanto, T tiene una ley exponencial de fallas con parámetro a (1 − p ) A continuación se presenta una alternativa para estimar el parámetro a de la distribución exponencial.

3

El método consiste en linealizar la función de distribución de

probabilidad, para ello se recurre a la expresión de la función densidad acumulativa F(t), F (t ) = 1 − e − a t

(29)

Luego se toma el logaritmo natural a ambos miembros, y = ln [1 − F ( t ) ] = − a t

(30)

y finalmente la ecuación lineal es y = b t , siendo b = − a .

(31)

Supongamos un caso particular en el cual se desea estudiar, por ejemplo, el test de vida de ciertos componentes a través de la estimación del parámetro característico de la distribución exponencial. Entonces, conociendo los tiempos en los que se analizan los elementos que sobrevivieron y sus respectivos porcentajes, es decir su respectiva función confiabilidad, es posible graficar R(t). Lo primero que se observa es que los puntos describen una recta cuya pendiente es negativa. Luego, la recta que mejor aproxima a la distribución de esos puntos puede trazarse usando el método de cuadrados mínimos. El valor del tiempo que corresponde a la intersección de la recta con el valor de confiabilidad 36,8% es precisamente el tiempo medio hasta un fallo, es decir m o lo que es lo mismo, el recíproco de la tasa de falla a . Finalmente, a partir de un cálculo sencillo es posible obtener el valor del parámetro buscado a . Para la utilización del método de cuadrados mínimos supondremos ignorable la incerteza de la variable tiempo. Entonces es necesario ajustar la función lineal teórica por el conjunto de puntos distribuidos en la representación gráfica tal que la suma de los cuadrados de las desviaciones verticales de los puntos hasta la recta sean mínimas. A continuación se presentan las ec. a ser usadas para dicho método,

aˆ = 0 N

∑ xi y i

bˆ =

i =1 N

(32)

2

∑ xi

i =1

En este caso, las ecuaciones para y i y para x i son, y i = ln [1 − F ( t i ) ]

(33)

xi = t i Una vez que aˆ y bˆ son obtenidas es fácil hallar aˆ a partir de la ec. (31).

También es posible obtener el parámetro a a partir del estimador de máxima verosimilitud para la distribución exponencial, es decir que, teniendo la función de verosimilitud de la muestra se puede encontrar el valor del parámetro que maximice dicha función. Para el caso de la distribución exponencial, la función de verosimilitud L es n

n

L ( t1 ....... t n , a ) = ∏ a e

− a ti

n

=a e

−a ∑ ti i =1

(34)

i =1

utilizando la propiedad de que el logaritmo es una función creciente y monótona, es lo mismo maximizar L que el ln(L), entonces L es máxima si

0=

∂ ln( L ) ∂a

=

n a

n

1

i= 0

t

− ∑ t i ⇒ aˆ =

(35)

El modelo de la distribución exponencial en la teoría de fallas es aplicable a un número considerable de ejemplos en los cuales se asuma el concepto básico de tasa de fallos constante, en los cuales se desprecia el desgaste del artículo en cuestión producido en el tiempo. Esta propiedad simplifica considerablemente el análisis, sin embargo, por otro lado limita el uso de este modelo haciéndolo inapropiado para la mayoría de las aplicaciones posibles en el “mundo real” pues existe evidencia suficiente e irrefutable que la tasa de fallo de los productos, en general, no es constante. Un ejemplo que aclara bastante este hecho es el caso de los autos. Los modelos nuevos poseen un precio considerablemente superior comparado con aquellos modelos más antiguos en los cuales el rendimiento de los mismos afectan significativamente el precio de venta, por lo tanto la tasa de fallo no es constante en el tiempo y la confiabilidad se ve afectada por

esta razón. Lo mismo ocurre con los componentes electrónicos que se degradan con el tiempo. A pesar de estas limitaciones, la contribución en la teoría de fallas de la distribución exponencial todavía tiene valor en el análisis de confianza para determinados casos, no es posible subestimarla; incluso se utiliza en la evaluación probabilística de seguridad de centrales nucleares para estudiar la confiabilidad de los sistemas o subsistemas que las componen.

5

En la actualidad se requiere del uso de métodos de análisis más sofisticados que modelen y reflejen de una mejor manera las condiciones del “mundo real”. Tales modelos

han

sido

descubiertos

y

son

acompañados

de

una

alta

tecnología

computacional compleja y de formulaciones matemáticas de alto nivel.

4. La ley de fallas de Weibull

La distribución estadística de Weibull es aplicable al estudio de la confiabilidad en problemas relativos a la fatiga y vida de componentes y materiales. Se caracteriza por considerar la tasa de fallas variable y es de la forma: b  t    a  a 

b −1

Z (t ) = 

(36)

donde T es la duración de un artículo, a es el parámetro de escala y b el parámetro de perfil, ambas son constantes positivas.

b

determina la forma de la función de

distribución y de la tasa de fallas. Se puede ver que Z(t) (Fig.9), llamada también función de riesgo, no es una constante sino que es proporcional a las potencias de t. Será una función constante cuando b = 1 , creciente si b > 1 , es decir que al aumentar t la proporción de artículos defectuosos aumenta en forma continua, lo que indica que los desgastes empiezan en el momento en que el mecanismo se pone en funcionamiento; o decreciente si 0 < b < 1 , es decir que al aumentar t la proporción de artículos defectuosos disminuye sin llegar a cero, por lo que se puede suponer que corresponde a la etapa de juventud del componente con un margen de seguridad bajo, dando lugar a fallos por tensión de rotura.

0 1 : •

f(t) = 0 cuando t =0.



Para b < 2 , 6 la fdp de Weibull es asimétrica y posee una cola hacia la derecha.



Para 2 , 6 < b < 3, 7 la cola desaparece y la forma de la distribución se asemeja la una fdp normal.



Para b > 3, 7 , f(t) se vuelve nuevamente asimétrica y aparece una cola en el lado izquierdo.

Para b = 1 : •

Se puede ver que la distribución exponencial es un caso particular de la distribución de Weibull, por lo tanto la propiedad mencionada en la ley de fallas exponencial de “falta de memoria” es equivalente a la hipótesis de tasa constante.

Para el caso de que b tienda a cero la f(t) tiende a la inversa de t.

Es importante destacar el cambio abrupto que se produce al pasar de b = 0 ,999 donde f(0) tiende a infinito a b = 1, 001 para el cual f(0) es cero. Este hecho complica la estimación del valor de b al acercarse a la unidad. Al cambiar el valor del parámetro de escala a de la fdp, cambia la escala de las abscisas.

Manteniendo constante el parámetro de forma se observa en la Figura 11

cómo al aumentar a decrece el pico de f(t), mientras el área de la curva se mantiene constante e igual a uno.

f(t)

β=3 α = 50

β=3

Fig. 11: Efecto del cambio en los valores del parámetro de escala a sobre la fdp de Weibull.

La función confiabilidad R(t) es una función decreciente de t:

R (t ) = e

 t  −  a 

b

(38)

Si la variable aleatoria T tiene una distribución de Weibull, la esperanza y la varianza están dadas por:

  1 E (T ) = t = a Γ  + 1  b  2

  2  1 2  1  Γ    V (T ) =  2 Γ   − b   b  b  b a

(39)

Notar que cuando b = 1 , el valor medio de t coincide con a pues Γ ( 2 ) = 1 . Γ es la función gamma y se define a partir de la siguiente expresión, ∞

Γ (l ) = ∫ e

−x

x

l −1

dx

(40)

0

Finalmente, la desviación estándar es

s =a

 2   1  Γ  + 1  − Γ  + 1  b  b 

2

(41)

Una forma posible de estimar los parámetros a

y b

pertenecientes a la

distribución de Weibull es a través de una resolución gráfica. Este procedimiento exige varios pasos y una o dos iteraciones, es relativamente directo y requiere de álgebra sencilla. Este método utiliza un papel a escala funcional llamado papel de Weibull o gráfico de 8

Allen Plait. En el eje de ordenadas se tiene la linealización de la función distribución acumulativa, F (t ) = 1 − e

 t  −  a 

b

(42)

es decir, 

   = b ln t − b ln a  1 − F (t )   

1

y = ln  ln  

(43)

y en el eje de abscisas se coloca el ln t . Entonces, cualquier grupo de datos que sigan la distribución de Weibull se puede representar por una línea recta siendo y = a + bx con a = − b ln (a )

(44)

b= b

Ahora se recurre al papel de Weibull para hallar los parámetros a y b . Para calcular b , es decir, el parámetro de forma que representa la pendiente de la recta, se hace pasar una recta paralela a la recta obtenida con la representación gráfica de los datos por el punto 1 de abscisas y 63,2 de ordenadas pudiendo leer directamente el valor de b en una escala tabulada de 0 a 7 (Fig. 12). Para calcular a , es decir el parámetro de escala, basta con encontrar la intersección de la recta trazada con la línea paralela al eje de abscisas correspondiente al 63,2% de fallos acumulados. De esta manera se halla el valor de t correspondiente a la estimación de a . Esto es así pues F(t) =1- e

a  −  a 

b

= 1− e

−1

= 0 , 632 .

α

α

=2000

Fig. 12: Lectura de los parámetros a y b en el papel de Weibull

Otra alternativa posible es plantear el método de máxima verosimilitud, siendo la función verosimilitud de la ley de Weibull N

L (a , b ) = ∏ f ( t , a , b )

(45)

t =1

con N el tamaño de la muestra de una variable aleatoria T. Los estimadores se obtienen a partir de la maximización de la función verosimilitud, o lo que es lo mismo, a partir del logaritmo neperiano de dicha función, entonces, se deben cumplir simultáneamente las siguientes igualdades ∂ ln L ∂a ∂ ln L ∂b

= 0

(46) = 0

Sin embargo, el sistema de ecuaciones que se obtiene a partir de tales igualdades no permite estimar los parámetros analíticamente. Además, los estimadores que se obtienen mediante el método de máxima verosimilitud son sesgados. Un método numérico que permite encontrar el factor de insesgo para bˆ y para la varianza se puede encontrar en el trabajo de Barone V., Calabrese P., Peralta J. E., “Estimadores de Máxima Verosimilitud para los parámetros de la distribución de Weibull”, "Monografías sobre Teoría de Errores y Tratamiento de Datos Experimentales (1995)", pág. 177-196.

En consecuencia, para poder hallar los estimadores de los parámetros de Weibull se debe recurrir a métodos numéricos, como por ejemplo una simulación Monte Carlo, o bien proponer métodos alternativos.

6

Una aproximación que se puede realizar frente a este inconveniente es considerar la propiedad asintótica de los estimados de máxima verosimilitud, que asigna, para un tamaño de muestra lo suficientemente grande, al estimador como variable aleatoria una distribución normal. Es decir que nos permite aproximar el comportamiento probabilístico del estimador. Una de las posibles aplicaciones de la distribución de Weibull ha sido el estudio 9

de las variaciones de los vientos de un determinado sitio. Dicho análisis ha sido de gran utilidad para los diseñadores de turbinas quienes utilizaron dichos resultados con el fin de minimizar los costos. Se debe tener en cuenta, sin embargo, que la velocidad del viento varía según el lugar donde se realicen las mediciones, depende, además, de las condiciones locales del clima, del terreno y de su superficie; por lo tanto, la distribución de Weibull variará no sólo en forma sino también en valor medio. Esta función también se ha usado en las Ciencias Biológicas para estudiar supervivencia a las bacteriemias y al cáncer gástrico.

10

5. Confiabilidad de los sistemas Se presentan a continuación las dos maneras más sencillas de combinar unidades individuales en un sistema y el tratamiento de sus respectivas confiabilidades.

4

Para que un sistema de n componentes independientes acoplados en serie funcione, todos los componentes deben funcionar. Por lo tanto si uno falla, el sistema no funciona. En consecuencia, la confiabilidad del sistema es menor que la confiabilidad de cualquiera de sus componentes, siendo la función de confiabilidad del sistema completo, n

R ( t ) = R1 ( t ) R 2 ( t )........ R n ( t ) = ∏ Ri ( t )

(48)

i =1

En el caso de que los componentes estén conectados en paralelo, el sistema deja de funcionar sólo si todos los componentes dejan de funcionar; suponiendo que los componentes funcionan independientemente.

La confiabilidad de este sistema será mayor que cualquiera de los componentes siendo la función de confiabilidad del sistema completo,

n

R(t)=1-[1-R 1 (t)] [1-R 2 (t)]… [1-R n (t)]= 1 − ∏ (1 − Ri ( t ))

(49)

i =1

Por la sencilla razón de que el acoplamiento en paralelo aumenta la confiabilidad del sistema es de uso más frecuente una operación en paralelo.

Es posible definir una nueva variable denominada “factor de seguridad”, que físicamente representa la relación entre la resistencia de una estructura y la fuerza aplicada a la misma. Si el cociente es menor a 1, la estructura fallará.

6. Discusión y Conclusiones La teoría de la confiabilidad trata sobre la eficiencia de los sistemas tecnológicos, designándole a cada uno de ellos una “función probabilidad” que permita discernir si el sistema cumple satisfactoriamente con la función para la que fue diseñado durante determinado período y en condiciones especificadas de operación detalladas. En especial dicha teoría se ocupa de las fallas de los sistemas sin necesariamente indagar las causas de los mismos. No es una teoría física, sino una teoría estadística. En síntesis, permite predecir acerca del tiempo de vida de un conjunto de productos a través de un ajuste de una función distribución estadística. La confianza y la probabilidad de falla para un tiempo específico de tales productos son características que son posibles de estimar a partir del análisis detallado de las gráficas obtenidas en cada caso en particular. En

instalaciones

en

las

que

se

pueden

generar

accidentes

de

graves

consecuencias, se hace imprescindible conocer la probabilidad de que éstos acontezcan durante la vida del sistema. Es obligatorio, entonces, la aplicación de técnicas de cuantificación del riesgo que recurren a modelos probabilísticos para establecer medidas preventivas. Por esta razón los estudios de confiabilidad resultan ser cada vez más relevantes.

Las tres leyes de fallas especificadas en este trabajo son sólo algunos de los modelos que se utilizan en el estudio de las características de falla en componentes o en sistemas de componentes. La ley de fallas normal permite, a través del método más confiable de estimación de parámetros, el de máxima verosimilitud, obtener expresiones analíticas para los estimadores incógnitas. Existen dos razones de peso por las cuales este es el método más usado en la actualidad, la primera es porque es relativamente fácil de implementar, requiere poco esfuerzo computacional y porque además es poco sensible a la dispersión de los datos.

6

Por otro lado, la distribución de Weibull es la ley de fallas más utilizada pues describe ampliamente y en gran cantidad los fenómenos del “mundo real” a la hora de analizar una gran variedad de funciones de confiabilidad de dispositivos o sistemas, sin embargo sus parámetros característicos no pueden ser obtenidos a partir del método de máxima verosimilitud pues resultan sesgados. En su lugar se puede utilizar la resolución gráfica. La pregunta que surge, en general, a la hora de la implementación de la teoría de fallas

es

cuál

es

la

distribución

óptima

que

modela

el

problema

a

tratar.

Lamentablemente no existe un recetario en el cual nos podamos apoyar para garantizar la repuesta correcta a dicha pregunta. Por lo tanto, algunas propiedades del sistema en estudio son las que permitirán aproximarse a la resolución del problema planteado. Por ejemplo si los efectos de desgaste en el tiempo pueden ser considerados despreciables, es coherente que supongamos que la ley de falla exponencial será la más apropiada. Si en cambio, el sistema se caracteriza por tener una simetría alrededor de un parámetro fijo, es de esperar que la distribución que mejor ajuste será la normal o bien una de Weibull con 2 , 6 < b < 3, 7 . La distribución de Weibull complementa a la distribución exponencial y a la normal, que son casos particulares de ella. Una vez encontrada la distribución de fallas asignada al sistema, uno podría preguntarse si es consistente, es decir si dicha ley describe el comportamiento del sistema, para ello se debe pasar por un test de hipótesis, que garantizará dicha consistencia; en caso de contrario, deberé aumentar el número de datos, cambiar el histograma o bien cambiar la función. En este trabajo se han planteado tres métodos alternativos para la estimación de los respectivos parámetros de las distintas distribuciones, el método gráfico, el de

cuadrados mínimos y el método de máxima verosimilitud. El método gráfico permite la estimación del parámetro de forma y del parámetro de escala de la distribución de probabilidad. Las ventajas de este método están basadas en dos conceptos, la linealidad del gráfico de probabilidad que es un parámetro que permite garantizar la buena elección de la distribución elegida y el coeficiente de correlación entre los puntos experimentales y la curva teórica que es un indicador de tal linealidad. Esta técnica es de fácil implementación para una gran variedad de distribuciones que poseen un único parámetro de forma. Este hecho también es, por otro lado la limitación o desventaja que posee este método. El método de máxima verosimilitud tiene grandes ventajas cuando el tamaño de la muestra es muy grande pues posee propiedades matemáticas óptimas como la obtención de estimadores convergentes, generalmente insesgados o cuyo sesgo puede corregirse fácilmente, con esperanza definida y de varianza mínima, por lo tanto, el intervalo de confianza de todos los estimadores es el más angosto posible. Además existe gran cantidad de software disponible en el mercado que provee excelentes algoritmos para obtener estimadores a partir del método de máxima verosimilitud con las distribuciones más usadas.

11

Por otro lado, las desventajas de este método radican en que según sea la

cantidad de parámetros a estimar, dependiendo de la distribución elegida, la matemática no es, en general, trivial, más aún si se imponen los intervalos de confianza a obtener. La estimación numérica tampoco es trivial y el método puede ser sensible a la elección de los valores iniciales. El método de cuadrados mínimos provee una alternativa al método de máxima verosimilitud y también es de fácil acceso a través de software especializados en estadística, en los cuales se incluyen también ajustes no lineales y proporcionan una amplia variedad de funciones de distribución de probabilidades a elección. Las desventajas son, por un lado, que no contempla las propiedades óptimas deseadas para un estimador mencionadas en el método de máxima verosimilitud y por otro lado, el método es sensible a la elección de los valores iniciales elegidos.

Referencias 1

http://www.weibull.com/LifeDataWeb/the_ normal_distribution.htm http://www.mtas.es/insht/ntp/ntp_316.htm 3 http://www.weibull.com/LifeDataWeb/exponential_ probability_density_function.htm 2

4

5

Paul L. Meyer, Probabilidad y Aplicaciones Estadísticas”, cap. 11, Addison-Wesley Iberoamericana. Felizia, E. “Centrales Nucleares, La Evaluación Probabilística”, CienciaHoy, Vol. 5, N°35, 1996.

6

Barone V., Calabrese P., Peralta J. E., “Estimadores de Máxima Verosimilitud para los parámetros de la distribución de Weibull”, "Monografías sobre Teoría de Errores y Tratamiento de Datos Experimentales (1995)", pág. 177-196.

7

http://www.weibull.com/LifeDataWeb/characteristics_of_the_weibull_distribution.htm Tamborero J., “Fiabilidad: La distribución de Weibull” 9 http://www.windpower.org/en/tour/wres/weibull.htm 8

10

Marubini E, Bonfanti G, Bozzetti F, et al. A prognostic score for patients resected for gastric cancer. Eur J Cancer 29A: 845-850. (1993).

11

Weibull++ 6 es un software diseñado específicamente para el análisis de tiempos de vida y de confiabilidad. Provee una gran variedad de análisis estadístico. (Supports: Life Data Analysis * Weibull Analysis * Complete and Censored (Suspended) Data * Maximum Likelihood Estimation (MLE) * Regression Analysis * Weibull Distributions * Mixed Weibull Distributions * Generalized Gamma Distributions * Lognormal Distributions * Exponential Distributions * Normal Distributions)

View publication stats