Sistemas Criticos

INTRODUCCION Los fallos de funcionamiento del software son relativamente comunes. En la mayoría de los casos, estos fall

Views 138 Downloads 1 File size 645KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

INTRODUCCION Los fallos de funcionamiento del software son relativamente comunes. En la mayoría de los casos, estos fallos provocan molestias, pero no daños graves ni a largo plazo. Sin embargo, en algunos sistemas un fallo de funcionamiento puede ocasionar pérdidas económicas significativas, daño físico o amenazas a la vida humana. Estos sistemas se conocen como Sistemas Críticos. La confianza de un usuario de un sistema crítico se mide principalmente por la confiabilidad que éste tenga en dicho sistema, basado principalmente en la disponibilidad, fiabilidad, seguridad y protección que el sistema le proporcione al usuario. Capítulo 3. SISTEMAS CRITICOS

II. SISTEMAS CRITICOS A. Definición de Sistemas Críticos • Son aquellos que tienen impacto directo en los procesos y/o productos. • Son sistemas técnicos o socio-técnicos de los cuales dependen las personas o los negocios, si estos sistemas no ofrecen sus servicios de la forma esperada pueden provocar graves problemas y pérdidas importantes.

Capítulo 3. SISTEMAS CRITICOS

B. Tipos Principales de Sistemas Críticos • Sistemas de seguridad críticos: Sistemas cuyo fallo puede provocar perjuicio, pérdida de vidas o daños graves al medio EJEMPLO: Un sistema de control para una planta de fabricación de ambiente. productos químicos. • Sistemas de misión críticos: Sistemas cuyo fallo de funcionamiento puede provocar errores en algunas actividades dirigidas por objetivos.EJEMPLO: Sistema de navegación para una nave espacial. • Sistemas de negocio críticos: Sistemas cuyo fallo de funcionamiento pueden provocar costes muy elevados para el negocio que utiliza un sistema de éste tipo. EJEMPLO: Sistema de cuentas bancarias.

Capítulo 3. SISTEMAS CRITICOS

II. CONFIABILIDAD DE UN SISTEMA La confiabilidad de un sistema informático es una propiedad del sistema que es igual a su fidelidad.

Confiabilidad = Fidelidad La fidelidad esencialmente significa el grado de confianza del usuario en que el sistema operará tal y como se espera de él y que no «fallará» al utilizarlo normalmente. Esta propiedad no se puede expresar numéricamente, sino que se utilizan términos relativos como «no confiable», «muy confiable» y «ultraconfiable» para reflejar los grados de confianza.

Capítulo 3. SISTEMAS CRITICOS

Existen cuatro dimensiones principales de la confiabilidad que están interrelacionadas: Confiabilidad

Disponibilidad

Fiabilidad

Seguridad

La capacidad del sistema para proporcionar servicios cuando son requeridos

La capacidad del sistema para proporcionar servicios como han sido especificados

La capacidad del sistema para funcionar sin fallos catastróficos

Protección

La capacidad del sistema para protegerse a si mismo a instrusiones accidentales o premeditadas

Capítulo 3. SISTEMAS CRITICOS

1.- Disponibilidad: Es la probabilidad de que el sistema esté activo y en funcionamiento y sea capaz de proporcionar servicios útiles en cualquier momento. 2.- Fiabilidad: Es la probabilidad de que, durante un determinado período de tiempo, el sistema funcione correctamente tal y como espera el usuario. Incluye:

• Corrección: Asegurar que los servicios que proporciona el sistema son los especificados. • Precisión: Asegurar que la información se proporciona al usuario con el nivel de detalle adecuado. • Oportunidad: Asegurar que la información que proporciona el sistema se hace cuando es requerida. Capítulo 3. SISTEMAS CRITICOS

3.- Seguridad: Es una valoración de la probabilidad de que el sistema cause daño a las personas o a su entorno. 4.- Protección: Es una valoración de la probabilidad de que el sistema pueda resistir intrusiones accidentales o premeditadas. Incluye: • Integridad: Asegurar que el programa y los datos del sistema no resulten dañados. • Confidencialidad: Asegurar que sólo las personas autorizadas puedan acceder a la información.

Capítulo 3. SISTEMAS CRITICOS

*Otras Propiedades... 1-Reparabilidad. Los fallos de funcionamiento del sistema son inevitables, pero la interrupción causada por estos fallos se puede minimizar si el sistema se puede reparar rápidamente. 2-Mantenibilidad. Un software mantenible es un software que puede adaptarse para tener en cuenta los nuevos requerimientos con un coste razonable y con una baja probabilidad de introducir nuevos errores en el sistema al realizar los cambios correspondientes.

Capítulo 3. SISTEMAS CRITICOS

3-Supervivencia. La supervivencia es la capacidad de un sistema para continuar ofreciendo su servicio mientras está siendo atacado y, potencialmente, mientras parte del sistema está inhabilitado. 4-Tolerancia a errores. Esta propiedad puede considerarse como parte de la usabilidad y refleja hasta qué punto el sistema ha sido diseñado para evitar y tolerar un error en la entrada de datos del usuario al sistema. Por lo general, niveles altos de confiabilidad solamente pueden alcanzarse a costa del rendimiento del sistema. El incremento de la confiabilidad de un sistema puede hacer crecer significativamente los costes de desarrollo. Esto es relativo ya que es mejor prevenir fallos.

Capítulo 3. SISTEMAS CRITICOS

III. DISPONIBILIAD Y FIABILIDAD La disponibilidad y fiabilidad de un sistema son propiedades que están estrechamente relacionadas y que pueden expresarse como probabilidades numéricas. No se puede deducir que los sistemas fiables estarán siempre disponibles y viceversa. Por ejemplo, algunos sistemas pueden tener como requisito una disponibilidad alta, pero una fiabilidad mucho más baja. Si los usuarios esperan un servicio continuo, entonces los requerimientos de disponibilidad son altos. Si un sistema A falla una vez al año, y un sistema B falla una vez al mes, entonces A claramente es más fiable que B. Sin embargo, supóngase que el sistema A tarda tres días en recuperarse después de un fallo, mientras que B tarda 10 minutos en reinicializarse. La disponibilidad de B a lo largo del año (120 minutos de tiempo sin servicio) es mucho mejor que la del sistema A (4.230 minutos sin servicio). Capítulo 3. SISTEMAS CRITICOS

La fiabilidad y la disponibilidad de un sistema se pueden definir de forma más precisa como sigue: 1. Fiabilidad. La probabilidad de que se tengan operaciones libres de caídas durante un tiempo definido en un entorno dado para un propósito específico. 2. Disponibilidad. La probabilidad de que un sistema, en cierto momento, esté en funcionamiento y sea capaz de proporcionar los servicios solicitados.

Capítulo 3. SISTEMAS CRITICOS

Enfoques complementarios usados para mejorar la fiabilidad de un sistema: 1. Evitación de defectos. Se utilizan técnicas que minimizan la posibilidad de cometer equivocaciones y/o detectan las equivocaciones antes de que provoquen la introducción de defectos en el sistema. 2. Detección y eliminación de defectos. Se usan técnicas de verificación y validación que incrementan la posibilidad de que los defectos se detecten y eliminen antes de utilizar el sistema. 3. Tolerancia a defectos. Se usan técnicas que aseguran que los defectos en un sistema no conducen a errores del sistema o que aseguran que los errores del sistema no dan lugar a fallos de funcionamiento del sistema. Capítulo 3. SISTEMAS CRITICOS

Terminología de la fiabilidad • Fallo del sistema: Evento que tiene lugar en algun instante cuando el sistema no funciona como esperan sus usuarios. • Error del sistema: Estado erroneo del sistema que puede dar lugar a un comportamiento del mismo inesperado por sus usuarios. • Defecto del sistema: Caracteristica de un sistema software que puede dar lugar a un error del sistema. • Error humano o equivocacion: Comportamiento humano que tiene como consecuencia la introduccion de defectos en el sistema.

Capítulo 3. SISTEMAS CRITICOS

IV. SEGURIDAD Los sistemas de seguridad críticos son sistemas en los que es esencial que el funcionamiento del sistema sea siempre seguro. Esto es, el sistema nunca debería provocar daños en las personas o en el entorno del sistema incluso si éste falla.

Ejemplos de sistemas de seguridad críticos son el control y monitorización de sistemas de un avión, sistemas de control de procesos en plantas químicas y farmacéuticas y sistemas de control de automóviles. Capítulo 3. SISTEMAS CRITICOS

El software de seguridad crítico se divide en dos clases: 1. Software de seguridad crítico primario. Es el software que está embebido como un controlador en un sistema. El mal funcionamiento de dicho software puede ocasionar un mal funcionamiento del hardware, lo que puede provocar lesiones personales o daños en el entorno. 2. Software de seguridad critico secundario. Es el software que indirectamente puede provocar lesiones. La fiabilidad y la seguridad del sistema están relacionadas, pero son distintos atributos de confiabilidad. Desde luego, un sistema de seguridad crítico es fiable si está de acuerdo con su especificación y funciona sin fallos.

Capítulo 3. SISTEMAS CRITICOS

Tres formas complementarias para garantizar la seguridad: 1. Evitación de contingencias. El sistema se diseña para que las contingencias se eviten. 2. Detección y eliminación de contingencias. El sistema se diseña para que las contingencias se detecten y eliminen antes de que provoquen un accidente. 3. Limitación de daños. El sistema incluye características de protección que minimizan el daño que puede resultar de un accidente. Contigencia: Una condicion con el potencial de causar o contribuir a un accidente. Daño: Medida de la perdida de un percance.

Capítulo 3. SISTEMAS CRITICOS

V. PROTECCION La protección es un atributo del sistema que refleja su capacidad para protegerse de ataques externos que pueden ser accidentales o provocados. La protección ha adquirido cada vez más importancia en tanto que más y más sistemas se han conectado a Internet.

Las conexiones a Internet proporcionan funcionalidades del sistema adicionales, pero la conexión a Internet también significa que el sistema puede ser atacado por personas con intenciones hostiles. Capítulo 3. SISTEMAS CRITICOS

Aproximaciones comparables que se utilizan para garantizar la protección de un sistema: 1. Evitar la vulnerabilidad. El sistema se diseña para que las vulnerabilidades no ocurran. 2. Detección y neutralización de ataques. El sistema se diseña para detectar vulnerabilidades y eliminarlas antes de que provoquen una exposición del sistema. 3. Limitación de la exposición. Las consecuencias de un ataque exitoso se minimizan. Vulnerabilidad: Debilidad en un sistema Informatico que se puede aprovechar para provocar pérdidas o daños. Ataque: Aprovechamiento de la vulnerabilidad de un sistema. Capítulo 3. SISTEMAS CRITICOS

CONCLUSION

Para mejorar la confiabilidad, es necesario adoptar una aproximación a las interacciones entre las tecnologías  y las personas para el diseño del sistema, teniendo en cuenta que las personas forman parte del sistema así como el hardware y el software. Es importante desarrollar sistemas con un grado razonable de confiabilidad pues los usuarios prefieren sistemas fiables, disponibles y seguros; además una falla en el sistema puede ser mucho más costosa que el hacer confiable al sistema. No todas las propiedades de la confiabilidad son aplicables a todos los sistemas. Es importante decidir qué tan confiable debemos hacer nuestro sistema, según las necesidades y requerimientos establecidos. La gran mayoría de las vulnerabilidades en los sistemas informáticos se originan en fallos humanos en lugar de en problemas técnicos. Capítulo 3. SISTEMAS CRITICOS

SISTEMAS CRITICOS

¿?