Desarrolla ampliamente los siguientes temas

Desarrolla ampliamente los siguientes temas:  ¿Qué es la arquitectura de computadoras? la arquitectura informática e

Views 146 Downloads 6 File size 141KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Desarrolla ampliamente los siguientes temas:



¿Qué es la arquitectura de computadoras?

la arquitectura informática es un conjunto de reglas y métodos que describen la funcionalidad, organización e implementación de los sistemas informáticos. Algunas definiciones de arquitectura la definen como la descripción de las capacidades y el modelo de programación de una computadora, pero no una implementación en particular. La arquitectura de un procesador viene dada por su juego de instrucciones, y normalmente se define en sus documentos descriptivos, que IVM llamaba ‘Principios de Operación”, aunque cada fabricante le da un nombre distinto. En estos manuales s identifican las operaciones (denominadas instrucciones maquinan) que se realiza el procesador correspondiente. Ayudándose de la sintaxis en el ensamblador, describe la operación que realiza los tipos de datos u operaciones que puede utilizar, los códigos de condición que estable y el formato de la instrucción en su representación binaria.

La disciplina de la arquitectura informática tiene tres subcategorías principales:  Arquitectura de conjunto de instrucciones (ISA): define el código de máquina que un procesador lee y sobre el que actúa, así como el tamaño de la palabra, los modos de dirección de memoria, los registros del procesador y el tipo de datos.  Microarquitectura: también conocida como "organización informática", describe cómo un procesador en particular implementará la ISA. El tamaño de la memoria caché de la CPU de una computadora, por ejemplo, es un problema que generalmente no tiene nada que ver con la ISA.  Diseño de sistemas: incluye todos los demás componentes de hardware dentro de un sistema informático, como el procesamiento de datos que no sea la CPU (por ejemplo, acceso directo a la memoria), virtualización y multiprocesamiento. Definición de la arquitectura de Computadoras: Entonces podemos definir que la arquitectura se ocupa de equilibrar el rendimiento, la eficiencia, el costo y la confiabilidad de un sistema informático. El caso de la arquitectura del conjunto de instrucciones se puede utilizar para ilustrar el equilibrio de estos factores en competencia. Los conjuntos de instrucciones más

complejos permiten a los programadores escribir programas con mayor eficiencia de espacio, ya que una sola instrucción puede codificar alguna abstracción de nivel superior (como la instrucción de bucle x86). Sin embargo, las instrucciones más largas y complejas tardan más en decodificar el procesador y pueden ser más costosas de implementar de manera efectiva. La mayor complejidad de un gran conjunto de instrucciones también crea más espacio para la falta de confiabilidad cuando las instrucciones interactúan de formas inesperadas. La implementación incluye diseño de circuitos integrados, empaquetado, energía y enfriamiento. La optimización del diseño requiere familiaridad con los compiladores, los sistemas operativos para el diseño lógico y el empaquetado.



Evolución de la tecnología

La tecnología de las computadoras fue evolucionando con la llegada de diferentes artefactos de igual forma se hicieron más pequeños, la evolución de nuestra tecnología llego con la aparición de la electrónica y aparecieron por generaciones

1.º.

Generación: La válvula de vacío (1945-1955)

El ENIAC fue el primer ordenador electrónico digital de propósito general que llegó a funcionar. Lo construyeron Mauchly y Eckert en 1943 y estaba formado por 18.000 válvulas y 1.500 relés. Sus 30 toneladas de peso consumían 140 Kw. En cuanto a su arquitectura, disponía de 20 registros capaces de almacenar un número decimal de 10 dígitos cada uno. Se programaba manualmente mediante 6.000 conmutadores y una jungla de cables y enchufes. Los militares lo estuvieron utilizando hasta 1955. Sucesores del ENIAC: EDVAC, JOHNIAC, ILLIAC, MANIAC 1945- EDVAC: Primer ordenador con programa almacenado en memoria 1946- IAS machine: Máquina de von Neumann (una versión del EDVAC) 1951 - UNIVAC I: primer ordenador digital disponible comercialmente 1953 - IBM 701, IBM 704 (primer ordenador comercial con programa de control), IBM 709.

2.º.

Generación: El tránsito (1955-1965)

1948 - Bell Labs inventa el transistor (Premio Nobel). 1957- En el M.I.T. se construye el TX-0 y TX-2. Kenneth Olsen funda DEC. 1961 - DEC lanza el PDP-1, con 4K (Nace el minicomputador). IBM saca la 7090, con 32K (cálculo científico), y la 1401 (aplicaciones comerciales). Cuestan millones de dólares. Dominio absoluto del mercado. 1964 - CDC 6600 (primera máquina paralela): 10 veces más rápido que el 7094

3.º.

Generación: Circuitos Integrados (1960-1980)

1959- Inventado por Texas Instruments y Fairchild Corporation. En un chip caben docenas de transistores. Fin del núcleo de ferrita. 1964 - IBM lanza la familia 360, con un espacio de direccionamiento de 224 bytes, y registros de 32 bits. Todos los modelos son compatibles, incluso con las series sucesoras 370, 43x1, 3080 y 3090. A mediados de los años 80, los 16 Mbytes se quedan pequeños.

DEC distribuye el PDP-11 por todas las universidades.

4.º.

Generación: Pcs. LSI y VLSI (1980-1990)

Decenas de miles, centenas de miles y millones de transistores en un chip. Nace el microprocesador y pasa a ser CPU en una sola pastilla (Unidad de Control + ALU + Registros) IBM saca el Ordenador Personal

5.º.

Generación: VHLSI (1990-2000)

En la 5ta Generación aparece la máquina de von Neumann, la cual tenía ciertas características básicas como: Memoria unidimensional, organizada como un vector de celdas del mismo tamaño y de direcciones secuenciales. Una misma memoria para instrucciones y datos. Sin distinción explícita entre instrucciones y datos. Sin especificación explícita de tipos de datos. Las instrucciones se ejecutaban secuencialmente. Se requerían instrucciones de salto para romper el flujo de control

La maquina de von Neumann tenía cuatro partes básicas: • La memoria • Unidad aritmético-lógica • Unidad de control • Sistema de entrada/salida La memoria estaba formada por 1024 palabras (ampliable a 4 K) de 40 bits (binario). Cada palabra podía contener 2 instrucciones o un número entero de 39 bits. Las instrucciones tenían 8 bits para indicar el tipo de instrucción, y 12 bits para especificar una palabra de memoria. La unidad aritmético-lógica tenía un registro interno de 40 bits llamado “acumulador”. Una instrucción típica sumaba el contenido de una palabra de memoria al acumulador, o almacenaba el contenido del acumulador en una palabra de memoria. Esta máquina no disponía de aritmética de coma flotante (von Neumann pensaba que cualquier matemático competente debería ser capaz de llevar mentalmente la cuenta de la posición de la coma decimal o, mejor dicho, binaria). Esta máquina tenía las siguientes características que hoy pueden parecer obvias:

• La memoria era unidimensional, organizada como un vector lineal de celdas del mismo tamaño y con direcciones secuenciales. • Disponía de una única memoria principal para contener instrucciones y datos. (En contraste con la arquitectura Harvard, que prefiere memorias distintas para instrucciones y para datos). • No había distinción explícita entre instrucciones y datos. • No había especificación explícita de los tipos de datos. • Cada instrucción especificaba la dirección de la siguiente instrucción a ejecutar. Posteriormente se le añadió el concepto del registro Contador de Programa, dando lugar a la ejecución secuencial de las instrucciones, y a la inclusión de las instrucciones de salto para alterar el flujo de control natural. Esta arquitectura es la que se mantiene hoy día en la inmensa mayoría de las máquinas de propósito general, en las que la Unidad de Control y la Unidad Aritmético-Lógica se han integrado en la actual CPU.

6.º.

Generación: las computadoras inteligentes (2000actualidad)

La sexta generación se podría llamar a la era de las computadoras inteligentes basadas en redes neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia. Algunas características de la sexta generación de computadoras:            

Las Computadoras Portátiles (Laptops) Las Computadoras de Bolsillo (PDAs) Los Dispositivos Multimedia Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.) El Reconocimiento de voz y escritura Las Computadoras Ópticas (luz, sin calor, rápidas) Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas) La Mensajería y el Comercio Electrónico La Realidad Virtual Las Redes Inalámbricas (WiMax, Wifi, Bluetooth) El Súper Computo (Procesadores Paralelos Masivos) Las Memorias Compactas (Discos Duros externos USB, Smart Media, PCMCIA)



Ley de Moore

La ley de Moore consiste en una observación del cofundador de Intel, Gordon Moore en el año de 1965 (19 de abril, en un artículo para Electronics Magazine, titulado “Abarrotar más componentes en circuitos integrados”), al darse cuenta que el número de transistores por pulgada cuadrada en circuitos integrados, se ha duplicado cada año desde su invención. En 1975 revisó su apreciación, considerando que esto sucedería cada dos años. La Ley de Moore predice que esto continuará sucediendo en el futuro inmediato, si bien su ritmo se ha ralentizado y ahora se calcula que el número de transistores por pulgada cuadrada se duplica cada 18 meses (Apreciación hecha por otro ejecutivo de Intel David House). La ley de Moore fue formulada en 1965 por uno de los fundadores de la empresa Intel, Gordon E. Moore. Este químico-físico predijo que la tecnología sería capaz de multiplicar por dos el número de transistores contenidos en un chip, con lo que la velocidad de procesamiento de las computadoras se multiplicaría cada año. Diez años más tarde, en 1975, Moore tuvo que rectificar su fórmula y ajustarla al ritmo que era físicamente posible, con lo que la Ley de Moore que actualmente conocemos es la que predice la duplicación de transistores cada dos años. Dicha ley se ha cumplido casi perfectamente desde que se formuló hasta hoy en día, como podemos apreciar en el gráfico siguiente, donde vemos la línea de predicción y los datos históricos reales.

Para introducir todos esos transistores en un mismo chip, el tamaño de los transistores cada vez ha tenido que reducirse, a la vez que se han ido reduciendo los tamaños de los circuitos integrados. En los años 70, los transistores tenían un tamaño de 10000 nanómetros o nm (equivalente a 1 micrómetro); en la actualidad se están fabricando transistores menores de 20 nm, y compañías como Intel anuncian que tienen pensado conseguir transistores de 10 e incluso 5 nm en pocos años. En esta carrera de la reducción de tamaño de los transistores, llegará un momento en el que sea muy difícil reducir más, por los problemas físicos a los que hay que enfrentarse con la tecnología de la que disponemos actualmente. El propio Moore anunció en 2007 que su ley tendría un momento en el que dejaría de ser eficaz, concretamente dijo que “la ley de Moore dejará de cumplirse dentro de 10 a 15 años”, esto significa que alrededor de 2020 la cantidad de transistores en un chip dejará de multiplicarse por dos cada dos años. Aunque los transistores tienen una gran importancia en la capacidad para la computación de los ordenadores personales, también otros factores tienen un gran peso, uno de los más importantes es el software, que, mediante sistemas de ajuste automático de la frecuencia, o de control del factor energético, mantendrán el ritmo actual de mejora continua de la capacidad de procesamiento de nuestros ordenadores.

 Computadora:  Ω Funciones, organización y arquitectura Ω Ω Ω

           

Estructura y funcionalidad Estructura en alto, medio y bajo nivel Plataformas informáticas Arquitectura de Hardware Arquitectura Von Neumann Arquitectura Harvard CPU y sus componentes Microprocesador y sus partes lógicas ALU, funciones y componentes Unidad de control y sus componentes Unidades funcionales Bus y tipos de buses Fases de ejecución (de una instrucción) Memorias, sus jerarquías y sus funciones Registros y tipos de registros (propósito general, usos específico, de estado  y configuración)

 La memoria caché.  Norma IEEE754

 Terminología de los circuitos integrados digitales  Características estándar de la serie TTL, CMOS y LVTs  Definir y ejemplificar los Circuitos Integrados: o De tres estados o Buffer o de Colector abierto o Conmutador bilateral (como el 74LS245)  Interfaz de CMOS de bajo voltaje con TTL  Interfaz de CMOS de alto voltaje con TTL  Interfaz de TTL con CMOS de bajo voltaje  Interfaz de TTL con CMOS de alto voltaje  Interfaz con tecnologías LVT.

   

Conceptos generales de la memoria Tecnologías de memorias ROM (antecedentes y evolución) Tecnologías de memorias RAM (antecedentes y evolución) Características principales de las memorias