Actividad 2 Sistemas Operativos

Universidad Autónoma de Nuevo León Facultad de Contaduría Pública y Administración Sistemas Operativos Maestra: Cristina

Views 219 Downloads 2 File size 905KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Universidad Autónoma de Nuevo León Facultad de Contaduría Pública y Administración Sistemas Operativos Maestra: Cristina Abrego Rdz Nombre: Ángel Alejandro Jasso Escalante Matricula: 1662029

29/01/18

EVOLUCION HISTORICA La historia del cómputo es un tema de gran riqueza e interés que debe revisarse su propio mérito. Debido al rápido avance de la tecnología y el costo que implica modificar una aplicación que funciona, es común, como muchos otros fenómenos históricos, que técnicas o productos de diversas etapas de desarrollo, incluso durante largos periodos COMPUTADORAS DE PROPOSITO PARTICULAR Las primeras computadoras electromecánicas se realizaron con ciertos propósitos específicos. En el caso de Mark II, este propósito fue el cálculo de tablas de tiro para la Marina al final de la Segunda Guerra Mundial. Como la aplicación era específica, las capacidades del equipo, la forma en que operaban, e incluso los lenguajes, se diseñaron con las capacidades necesarias sin emplear recursos o esfuerzos significativos adicionales. Los investigadores que desarrollaron el equipo dieron continuidad al diseño de la aplicación y soporte a la operación. Para todos los dispositivos de cómputo anteriores, no existían recursos disponibles ni necesidad significativa para generar los elementos de un sistema operativo. Hoy en día, las computadoras de propósito particular, basadas en procesadores o microcontroladores que en ocasiones no requieren modos protegidos de operación, pueden seguir modelos similares de desarrollo de sistemas de información para ser aplicados con recursos específicos acordes a sus necesidades, con mínimos requerimientos de compatibilidad y muy poca o nula conectividad. COMPUTADORAS COMERCIALES MONOPROCESO Con el éxito de las primeras computadoras electromecánicas, el uso de dispositivos electrónicos, como los tubos de vacío y después los transistores, y con los avances en materia de lenguaje de programación como el ensamblador, los compiladores y las subrutinas, resulto rentable el desarrollo de computadoras comerciales como la UNIVAC o los sistemas 360 de IBM. Estas computadoras se comercializaban unto con los servicios necesarios para el desarrollo de las aplicaciones y los programas, bibliotecas para control de dispositivos de entrada y salida y también programas orientados a cargar los programas de los datos, usualmente de medios como las cintas y tarjetas perforadas , y después cintas magnéticas, para presentar los resultados también en cintas y tarjetas perforadas, hasta llegar a teletipos y discos magnéticos. Las grandes inversiones en infraestructura para adquirir estos equipos traslado parten de la atención al desarrollo de equipos de entrada y salida progresivamente mejores con énfasis en las capacidades para almacenar la información a procesar mediante diversos tipos de memoria, como la de tambor, núcleos de ferrita, discos duros y, finalmente, la memoria basada en semiconductores. También se han desarrollado dispositivos dedicados a almacenar la información a largo plazo con capacidad para procesarla y extraer los resultados. Estos dispositivos pueden reemplazarse con mayor frecuencia y aprovechar las

características favorables de nuevos modelos con mucho menor impacto económico y que además implican menos modificaciones a los sistemas de la información. Es de gran importancia comercial dar soporte a los nuevos dispositivos, por lo que el software dirigido las aplicaciones orientadas a modelos anteriores es prioritario; por ello, se distribuye con el equipo y se hace llegar a todos los propietarios de servidores del mismo proveedor a fin de facilitar la comercialización de los dispositivos. A diferencia de las primeras computadoras, el equipo que las diseña y construye no está relacionado de manera directa con el desarrollo de las aplicaciones; además, el tipo de aplicaciones que se desarrollaron son más variadas y cercanas a las necesidades productivas de las empresas que las adquieren. Las aplicaciones de corte administrativo y las diseñadas para realizar cálculos matemáticos sobresalen, y ninguno de estos problemas es fácilmente representado por el ensamblador o por lenguajes de código ejecutable particulares de las unidades de procesamientos. Estos lenguajes son elaborados y ofertados por los fabricantes de las computadoras como una ventaja competitiva al facilitar el desarrollo de las aplicaciones pues representan los primeros intentos de estandarización o certificación de las capacidades de las implementaciones de diversos fabricantes con miras a evitar que las aplicaciones desarrolladas en una plataforma requieran demasiado esfuerzo para ser migradas a otras. También surgen los programas orientados a procesar los conjuntos de programas que alimentan a la computadora mediante dispositivos de almacenamiento. A esto se le denomina procesamientos por lotes, donde los conjuntos de trabajos son recabados por los operadores con anterioridad y, una vez que se ha terminado el procesamiento, se produce a recopilar los resultados y entregarlos a los usuarios. Al paso de los años, y conforme se mejoraran los diseños de las computadoras, los dispositivos para implementar la memoria y la propia construcción de las unidades de procesamientos, se han llegado a obtener computadoras con capacidades muy superiores a las anteriores y, además, tienen menos requerimientos en cuanto a la infraestructura necesaria para sus operaciones. MULTIPROCESO Conforme crecen las capacidades de las computadoras, las aplicaciones que en modelos anteriores hubieran ocupado la totalidad de recursos como la memoria, pasan a ocupar solo una fracción de ellos. Nuevas técnicas de construcción de computadoras a basa de circuitos grabados sobre placas de baquelita y el uso de semiconductores con mayores escalas de integración llevan a capacidades de procesamiento cada vez mejores, cumpliendo incluso con la ley de Moore, la cual describe que dicha capacidad prácticamente se podía duplicar por la mitad del costo cada 18 meses gracias a las técnicas empleadas en la fabricación de nuevos procesadores, esta tendencia se mantuvo entre 1965 y 2008. Para evitar que la CPU se ocupe en la espera de las operaciones de entrada y salida, se implementan esquemas de interrupciones que permitan el procesador

continuar la atención de los procesos durante la operación de entrada y salida y que pueda ser notificado cuando estas operaciones terminen para suspender durante un mínimo de tiempo la atención de los procesos. Sin embargo, para continuar con el procesamiento se requieren más tareas, además de aquellas que solicitaron la operación, y a menudo deben suspender su labor en espera de que la operación solicitada termine. Gracias a la reducción del costo y a la disminución de potencia, requerimientos térmicos y espacio que cada procesador tiene, también se comienza, a desarrollar equipos que emplean múltiples procesadores en los que se conoce como multiprocesamiento. Con la relativa abundancia de recursos disponibles en las computadoras, es posible albergar múltiples programas en la memoria y alternar la atención del procesador para atenderlas con frecuencia que no solo aproveche los tiempos de bloqueo sino incluso genere la ilusión de que todos se atienden de forma simultánea. La implementación de un ambiente de ejecución de programas que soporte el multiproceso es considerado más complejo que los procesadores por lotes preexistentes, por lo que varias implementaciones, como Multics, prácticamente fracasan. Las primeras iniciativas que lograron implementar esquemas de multiprocesamientos efectivos cooperativas basadas en desarrollos modestos y graduales, como el de sistema operativo UNIX y el lenguaje de programación C empleados mutuamente en el desarrollo del otro. Con la acumulación de programas de utilería, controladores, lenguajes y bibliotecas, junto con el soporte a aplicaciones desarrolladas con anterioridad, se tiene una cantidad de software a la que no se le puede dar mantenimiento y aplicaciones muy complicadas, a fin que las pruebas a las que son sometidos no puedan ser desarrolladas de manera intuitiva. El número de errores en las aplicaciones también tiende a incrementarse en lo que se conoce como la crisis del software. El principal enfoque para solucionar esta tendencia es la generación de nuevas técnicas de análisis, diseño y pruebas de sistemas, con propuestas hechas por investigadores, como Edsger Dijkstra, de modificar el paradigma de programación para que los programas puedan asegurar, mediante técnicas formales, su estabilidad y cumplimiento de requerimiento. Se separa el desarrollo de las aplicaciones (incluso aquellas que implementan los mecanismos para emplear las funciones básicas del sistemas operativo del desarrollo del núcleo, que debe proporcionar el ambiente de ejecución a las aplicaciones) y se comienza el desarrollo de núcleos con funcionalidades mínimas (conocidos como micro kernel) para facilitar la verificación y optimización de este elemento fundamental al margen del cada vez mayor conjunto de software que debe acompañarlo en el paquete del sistema operativo. El desarrollo de los controladores de dispositivos de entrada y salida tratan de ser de forma separada. Para soportar la portabilidad de las aplicaciones entre diversos sistemas operativos, se proponen estándares de funciones que el sistema operativo exponga mediante interfaces de programación para el desarrollo de aplicaciones, entre lo que se cuenta POSIX.

COMPUTO PERSONAL Una segunda consecuencia de la disponibilidad de procesadores fabricados en masa y de bajo costo es la posibilidad de construir computadoras basadas en estos procesadores a un bajo costo y con capacidades rudimentarias, pero con una potencia considerable. Estos equipos tenían sistemas operativos destinados a proporcionar un lenguaje de programación, además de dispositivos y aplicaciones orientados a fines específicos. De esta manera, Basic surgió en esta etapa como un lenguaje que fuera sencillo de aprender. El incremento en el número de computadoras en uso hace énfasis en la necesidad de intercambiar información entre ellas, lo que ayuda a popularizar redes de bajo costo y medios de transferencia compartidos como Ethernet mediante cable coaxial y después con cableado sin blindar (UTP5). Las terminales en sistemas mainframe, al no ser producidas en masa, mantuvieron costos relativamente elevados ante la creciente presión de las computadoras personales. Una vez que las redes de área local se esparcieron en casi todas las instituciones, la simulación de la terminal mediante programas que se ejecutan en una computadora personal resulta más económicas y además da al usuario final una computadora personal para obtener beneficios adicionales. Los sistemas de mainframe reemplazan el modelo de comunicación distribuida. Surgió una gran variedad de equipos y fabricantes de computadoras. Algunos de ellos lograron ser los proveedores más importantes en sus regiones, pero la falta de compatibilidad y la limitada capacidad de producción de una pequeña compañía restringieron su interés y capacidad de atacar mercados globales. IBM, uno de los principales fabricantes de computadoras y el principal fabricante de software del mundo, incursiono en el mercado diseñando y construyendo un tiraje limitado de computadoras orientadas a ser extensibles, usar productos como los procesadores Intel que se pudieran fabricar en masa y estándares para los puertos y algunos elementos de la arquitectura. Esta compañía publico las especificaciones como la había hecho antes con los puertos de comunicación con lo que favoreció el desarrollo independiente de fabricantes que pudieran implementarlas con menores márgenes de ganancia a fin de abatir su costo para los consumidores. Tampoco comprar a Intel, el fabricante de los procesadores en que se basó en la arquitectura, ni a Microsoft, la naciente compañía que contrato para desarrollar el sistema operativo rudimentario. El posterior desarrollo de la plataforma y el reciente interés en computadoras personales hizo que las IBM PC compatibles dominaran después el mercado de las computadoras personales además de ofrecer control de dispositivos de entrada y salida, soporte en la red y seguridad. La diversidad de fabricantes de plataformas IBM PC compatibles y dispositivos de entrada y salida crece muy rápido gracias a la respuesta favorable del mercado. Esto ayuda a que los fabricantes de componentes, incluyendo los procesadores, puedan costear la inversión a fin de lograr incrementar la producción para satisfacer ese mercado y abatir sus costos.

La variedad de fabricantes y dispositivos cuyas características buscan representar una alternativa para ganar la preferencia de los usuarios genera problemas para la administración de dispositivos de entrada y salida en el cómputo personal. Ante el aumento de los controles para limitar el uso de los servidores en las instituciones comerciales o académicas y la popularización de computadoras personales, se comenzó a tratar de implementar los mismos programas y sistemas operativos en todas las plataformas. El proyecto GNU contaba con una colección de programas de utilería para sistemas operativos UNIX distribuidos como software libre. Linus Torvalds inicio un proyecto de kernel simplificado, monolítico y dependiente de la arquitectura 80x86 de Intel de su propia computadora y logro un producto funcional en relativamente poco tiempo, con lo que se inició el desarrollo de Linux, computadores personales que sigue desarrollándose y ha llegado a presentar una alternativa viable para aplicaciones comerciales y personales de la que los sistemas operativos comerciales han tomado muchos elementos. Sistemas operativos como Windows y Mac OS se han enfocado a incorporar elementos que hagan más sencillo el uso para los usuarios con poca capacitación en materia informática. MASIFICACION DE LA INTERNET La popularidad de las redes de área local para intercomunicar las computadoras personales y los servidores ayudo a las instituciones y a los individuos a aprovechar de mejor manera la capacidad de sus equipos y el desarrollo de los sistemas distribuidos. Iniciativas como la de ARPANET, del ejercito de los Estados Unidos de América, ponen a punto los equipos y programas necesarios para dirigir los paquetes de las redes Ethernet a lo largo de múltiples nodos para llevarlos al destino adecuado en otra red, el correo electrónico y la transferencia de documentos de hipertexto por el protocolo HTTP que da origen a la Word Wide Web se basan en ese tipo de redes para satisfacer las necesidades de la comunidad de las instituciones que ayudan a desarrollar la tecnología. Los medios de comunicación han disminuido su costo progresivamente y han llegado incluso a reemplazar la computadora personal (debido al costo que implican las instalaciones que estas requieren y el costo mismo del equipo) por las plataformas móviles o Smartphone como el principal dispositivo empleado para acceder a Internet, aprovechando la facilidad de estos dispositivos de acompañar a los usuarios y operar prácticamente en cualquier lugar, incluso sin conexión a Internet, lo que se conoce como computo ubicuo. COMPUTO UBICUO Este tipo de sistemas y aplicaciones requieren que los sistemas operativos se adapten a un conjunto de requerimientos con diferencias importantes. Ubicuo es un término derivado del latín que significa en todas partes, y se aplica a los sistemas que cuentan con nodos en operación fuera del acceso sostenido a las instalaciones o servicios, como el acceso a la

red, a la potencia eléctrica y a instalaciones convencionales. Estas nacientes propuestas deben lidiar con las necesidades de un gran número de dispositivos y modelos de mercados poco claros, sin importar el rumbo que tome su desarrollo y su popularidad, pues están ayudando a desarrollar tecnologías necesarias para proseguir la tendencia a incrementar el número de dispositivos de computo empleados por usuarios que requieren mantenerse en comunicación de manera económica, oportuna y segura. INTERNET DE COSAS Las ventajas que se pueden lograr con un gran número de dispositivos con capacidades de cómputo moderadas que interactúan en redes de área personal, es decir, en torno a una persona, a una casa, un auto, etc., constituyen uno de los frentes de expansión de las tecnologías de computación actuales. Comenzamos a ver beneficios en este tipo de dispositivos en el control de edificios, orientados a disminuir los costos de operación y el impacto de medio ambiente; en los autos, para que cuenten con servicios de navegación y entretenimiento superiores, en los individuos, quienes pueden monitorear ciertos factores que contribuyan a su salud. Este tipo de dispositivos parten de las tecnologías de cómputo ubicuo pero atienden a las necesidades de costo beneficio y seguridad. TENDENCIAS La profesionalización del cómputo como disciplina es el primer aspecto a considerar en la formación de nuevos ingenieros o profesionales de carreras asociadas. La importancia del software ha crecido de manera constante en las últimas décadas, y la tendencia para las sociedades con acceso a tecnología avanzada. El predominio de los dispositivos móviles como medio de acceso a internet está cambiando la forma en la que se entiende el mercado de las aplicaciones, exige nuevos y mejores mecanismos de distribución y está ampliando el alcance de la tecnología, que aunque aún se encuentra lejos de poder accesible para todos, al menos está dejando de ser exclusiva para las grandes empresas y las universidades. Pero hay que considerar la seguridad informática como una parte integral de proceso de elaboración del software, el cual está impulsado por la masificación de la internet, la alta interactividad de los sistemas y la creciente importancia de los sistemas de información en las tareas fundamentales de la sociedad y en los servicios básicos. CLASIFICACION DE LOS SITEMAS OPERATIVOS SITEMAS MONOLITICOS Y MICRO KERNEL Los sistemas operativos que por su simplicidad tienden a integrar una buena parte de la funcionalidad del sistema en el kernel o núcleo se conocen como monolíticos y resultan

convenientes para sistemas especializados y de limitada magnitud por ser más sencillos en su estructura. Los sistemas micro kernel son aquellos que procuran incluir solo el mínimo de funcionalidad en el núcleo y desacoplar el resto de esta incluso a costa de usar mecánicas más complejas. PROPIETARIOS Y SOFTWARE LIBRE La segunda gran distinción se refiere no tanto a la funcionalidad o estructura sino al modelo de propiedad intelectual, comercialización y distribución que los sistemas siguen. Aunque hay algunos que usan esquemas particulares, existen dos grandes alternativas: 1. El software propietario o comercial busca mantener en secreto los detalles de la implementación del sistema, con miras a ganar una ventaja competitiva respecto a otros fabricantes de sistemas operativos y así poder seguir un modelo de distribución comercial. Este modelo que siguen la mayoría de las computadoras con sistemas, como las de Apple o Microsoft. 2. Por otra parte, el software libre retoma las prácticas colaborativas de los sistemas tempranos de cómputo y busca desarrollar de manera cooperativa el sistema operativo. Hoy en día, los dos modelos de negocio están teniendo a converger ya que empresas como Red Hat, MySQL, Sun y otras de manera tradicional aprovechan el software libre. 



 



Por lotes (Batch): es aprovechado para una administración de procesos de rudimentaria. Se emplea hoy en día en aquellos sistemas de propósitos particular que solo utilizan una aplicación, o un numero reducido de ellas, e incluso pueden prescindir del modelo de procesos Tiempo compartido o interactivo: es destinado a los sistemas que habitualmente empleamos a los usuarios finales, orientados a mantener una interacción fluida con las interfaces de usuario o para la atención a los procesos que ejecutan. Sistema de tiempo real: estos sistemas son responsables de establecer y cumplir compromisos en el tiempo de atención de la CPU para los procesos que ejecutan Distribuido: estos sistemas dan mayor soporte al desarrollo de arquitectura de sistemas distribuidos haciendo énfasis en la atención a las operaciones de red, a la automatización de la instalación y a la administración de los sistemas, así como el soporte a la funcionalidad empleada por los sistemas distribuidos, tales como la invocación remota de métodos o el paso de mensajes Embebido: en sistema que tienen propósitos específicos con dispositivos fabricados a la medida, originalmente se usaban versiones reducidas de otros tipos de sistemas operativos que eran adaptadas a las necesidades particulares del dispositivo y su aplicación.