Sistema Binario

SISTEMA NUMÉRICO BINARIO. Un número binario sólo tiene ceros y unos. Es el sistema que utiliza internamente el hardware

Views 206 Downloads 4 File size 779KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

SISTEMA NUMÉRICO BINARIO. Un número binario sólo tiene ceros y unos.

Es el sistema que utiliza internamente el hardware de las computadoras actuales. se basa en la representación de cantidades utilizando los dígitos 1 0. .Cada dígito de un número de este sistema se denomina bit (Contracción de binary digit).En una cifra binaria, cada dígito tiene distinto valor dependiendo de la posición que ocupe. El valor de cada posición es el de una potencia de base 2, elevada a un exponente igual a la posición del dígito menos uno. Se puede observar que, tal y como ocurría con el sistema decimal, la base de la potencia coincide con la cantidad de dígitos utilizados (2) para representar los números. El sistema binario, en ciencias e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0). Dos valores diferentes Como sólo puedes tener ceros y unos, en binario se cuenta así: Decimal

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Binario

0

1

10

11

100

101

110

111

1000

1001

1010

1011

1100

1101

1110

1111

"El binario es tan fácil como 1, 10, 11." Aquí tienes más equivalencias: Decimal

20

25

30

40

50

100

200

500

Binario:

10100

11001

11110

101000

110010

1100100

11001000

111110100

yDe acuerdo con estas reglas, el número binario 1011 tiene un valor que se calcula así: 1*23 + 0*22 + 1*21 + 1*20 , es decir: 8 + 0 + 2 + 1 = 11 y para expresar que ambas cifras describen la misma cantidad lo escribimos así: 10112 = 1110

Por su simplicidad y por poseer únicamente dos dígitos diferentes, el sistema de numeración binario se usa en computación para el manejo de datos e información. Normalmente al dígito cero se le asocia con cero voltios, apagado, desenergizado, inhibido (de la computadora) y el dígito 1 se asocia con +5, +12 volts, encendido, energizado (de la computadora) con el cual se forma la lógica positiva. Si la asociación es inversa, o sea el número cero se asocia con +5 volts o encendido y al número 1 se asocia con cero volts o apagado, entonces se genera la lógica negativa. A la representación de un dígito binario se le llama bit (de la contracción binary digit) y al conjunto de 8 bits se le llama byte. Como el sistema binario usa la notación posicional entonces el valor de cada dígito depende de la posición que tiene en el número.

1

CONVERSIÓN ENTRE NÚMEROS DECIMALES Y BINARIOS

Convertir un número decimal al sistema binario es muy sencillo: basta con realizar divisiones sucesivas por 2 y escribir los restos obtenidos en cada división en orden inverso al que han sido obtenidos. Por ejemplo, para convertir al sistema binario el número 7710 haremos una serie de divisiones que arrojarán los restos siguientes: 77 : 2 = 38 Resto: 1 38 : 2 = 19 Resto: 0 19 : 2 = 9 Resto: 1 9 : 2 = 4 Resto: 1 4 : 2 = 2 Resto: 0 2 : 2 = 1 Resto: 0 1 : 2 = 0 Resto: 1 y, tomando los restos en orden inverso obtenemos la cifra binaria: 7710 = 10011012

CONVERSIÓN DE UN NÚMERO DECIMAL A BINARIO Para esta transformación es necesario tener en cuenta los pasos que mostraremos en el siguiente ejemplo: Transformemos el número 42 a numero binario 1. Dividimos el número 42 entre 2 2. Dividimos el cociente obtenido por 2 y repetimos el mismo procedimiento hasta que el cociente sea 1. 3. El número binario lo formamos tomando el primer dígito el último cociente, seguidos por los residuos obtenidos en cada división, seleccionandolos de derecha a izquierda, como se muestra en el siguiente esquema.

Conversión de decimal a binario CONVERSIÓN DE UN NUMERO DECIMAL FRACCIONARIO A UN NÚMERO BINARIO Para transformar un número decimal fraccionario a un número binario debemos seguir los pasos que mostramos en el siguiente ejemplo: transformemos el número 42,375. 1. la parte entera se transforma de igual forma que el ejemplo anterior. 2. La parte fraccionaria de la siguiente manera: Multiplicamos por el número 2 y tomamos la parte entera del producto que irá formando el número binario correspondiente Tomamos nuevamente la parte entera del producto, y la parte fraccionaria la multiplicamos sucesivamente por 2 hasta llegar a 0. Tomamos nuevamente la parte entera , y como la parte fraccionaria es 0, indica que se ha terminado el proceso. El número binario correspondiente a la parte decimal será la unión de todas las partes enteras, tomadas de las multiplicaciones sucesivas realizadas durante el transcurso del proceso , en donde el primer dígito binario corresponde a la primera parte entera , el segundo dígito a la segunda parte entera , y así sucesivamente hasta llegar al ultimo .Luego tomamos el número binario , correspondiente a la parte entera , y el número binario , correspondiente a la parte fraccionaria y lo unimos en un solo número binario correspondiente a el número decimal.

Conversión de decimal fraccionario a binario CONVERSIÓN DE UN NÚMERO BINARIO A UN NÚMERO DECIMAL Para convertir un número binario a decimal, realizamos los siguientes pasos:

1. Tomamos los valores de posición correspondiente a las columnas donde aparecen únicamente unos 2. Sumamos los valores de posición para identificar el número decimal equivalente

Conversión de binario a decimal CONVERSIÓN DE UN NÚMERO DECIMAL A OCTAL Para convertir un número en el sistema decimal al sistema de numeración Octal, debemos seguir los pasos que mostraremos en el siguiente ejemplo Convertir el número decimal 323.625 a el sistema de numeración Octal 1. Se toma el número entero y se divide entre 8 repetidamente hasta que el dividendo sea menor que el divisor, para colocar entonces el número 0 y pasar el dividendo a formar el primer dígito del número equivalente en decimal 2. Se toma la parte fraccionaria del número decimal y la multiplicamos por 8 sucesivamente hasta que el producto no tenga números fraccionarios 3. Pasamos la parte entera del producto a formar el dígito correspondiente 4. Al igual que los demás sistemas , el número equivalente en el sistema decimal , está formado por la unión del número entero equivalente y el número fraccionario equivalente.

Conversión de decimal a octal

CONVERSIÓN DE UN NÚMERO OCTAL A BINARIO La ventaja principal del sistema de numeración Octal es la facilidad con que pueden realizarse la conversión entre un número binario y octal. A continuación mostraremos un ejercicio que ilustra la teoría. Por medio de este tipo de conversiones, cualquier número Octal se convierte a binario de manera individual. En este ejemplo, mostramos claramente el equivalente 100 111 010 en binario de cada número octal de forma individual.

Conversión de octal a binario HISTORIA DEL SISTEMA BINARIO El antiguo matemático indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era, lo cual coincidió con su descubrimiento del concepto del número cero. Una serie completa de 8 trigramas y 64 hexagramas (análogos a 3 bit) y números binarios de 6 bit eran conocidos en la antigua China en el texto clásico del I Ching. Series similares de combinaciones binarias también han sido utilizadas en sistemas de adivinación tradicionales africanos, como el Ifá, así como en la geomancia medieval occidental. Un arreglo binario ordenado de los hexagramas del I Ching, representando la secuencia decimal de 0 a 63, y un método para generar el mismo fue desarrollado por el erudito y filósofo Chino Shao Yong en el siglo XI. En 1605 Francis Bacon habló de un sistema por el cual las letras del alfabeto podrían reducirse a secuencias de dígitos binarios, las cuales podrían ser codificadas como variaciones apenas visibles en la fuente de cualquier texto arbitrario. El sistema binario moderno fue documentado en su totalidad por Leibniz, en el siglo XVII, en su artículo "Explication de l'Arithmétique Binaire". En él se mencionan los símbolos binarios usados por matemáticos chinos. Leibniz utilizó el 0 y el 1, al igual que el sistema de numeración binario actual. En 1854, el matemático británico George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.

QUE ES UN BIT El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1) Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles: ● 0 0 - Los dos están "apagados" ● 0 1 - El primero (de izquierda a derecha) está "apagado" y el segundo "encendido" ● 1 0 - El primero (de izquierda a derecha) está "encendido" y el segundo "apagado" ● 1 1 - Los dos están "encendidos" Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores azul, verde, rojo y magenta. A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número n de bits pueden representarse hasta 2n valores diferentes.3 Bit es el acrónimo Binary digit (dígito binario). Un bit es un dígito del sistema de numeración binario. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1. Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:

apagada

o encendida

Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes. El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1). El bit es una unidad de información que admite dos valores (representados como 0 y 1). El símbolo establecido en el Sistema Internacional de Magnitudes es bit, igual que el nombre, pero invariable. En el Sistema Internacional de Magnitudes se considera incorrecto emplear los prefijos multiplicativos decimales cuando se quiere usar el binario: así 1 kbit debe representar 1000 bit y no 1024 bit, como ocurre a menudo. Para representar 1024 se recomienda, y cada vez está más extendido, el prefijo Ki (1 Kibit = 1024 bit). De igual modo 1 Kib = 1024 b (o 1 KiB = 1024 B). El IEEE 1541 específica "b" (minúscula) como el símbolo para bit. Sin embargo la IEC 60027 y el MIXF especifican "bit" (por ejemplo Mbit para megabit), teniendo la máxima desambiguación posible de Byte. "b" vs. "B": la confusión parece ser suficientemente común para haber inspirado la creación de una página web dedicada b no es B.

OCTETO. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos). Los bytes de 8 bits a menudo se llaman "octetos" en contextos formales como los estándares industriales, así como en redes informáticas y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses. Los países francófonos utilizan una "o" minúscula para "octeto": es posible referirse a estas unidades indistintamente como ko, Mo, o kB, MB. Esto no se permite en el SI por el riesgo de confusión con el cero, aunque esa es la forma empleada en la versión francesa del estándar ISO/IEC 80000-13:2008. Nota: Un byte y un octeto no son lo mismo. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones. BYTE El byte es una unidad de información en computación que consiste en cierto número de bits contiguos, normalmente ocho, pero que según el sistema informático pueden ser más o menos. En El pequeño Larousse ilustrado[1], por ejemplo, se refieren a byte como ‗unidad de medida de contenido de información equivalente a un cierto número de bits, en general, 4, 6 u 8‘. No debe confundirse con octeto (del inglés octet), que es específicamente un byte de ocho bits y que es la acepción que recoge el DPD y el DRAE para la palabra byte[2]. El Sistema Internacional de Magnitudes (ISQ) recomienda restringir el empleo de byte a los octetos y de hecho incorpora el símbolo francés o (de octet) para la unidad. Al ser una unidad, debería escribirse en letra redonda, puesto que las normas internacionales consideran que los nombres de unidades son nombres comunes, sin tratamiento especial. La Academia, no obstante, lo escribe en cursiva.

Carece de símbolo internacional, aunque se suele emplear el inglés B; también se emplea b. Al ser un símbolo, se escribe sin punto. Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. (Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales.)[cita requerida. Byte proviene de bite (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con bit, sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños. 1 Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo. 2 Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos unsigned char tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Java byte está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre –128 y 127. HISTORIA El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un Byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un Byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360.11 CONTROVERSIAS Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits.12 Los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Sin embargo, en la historia otros ordenadores o computadoras han tenido Bytes cuyo valor no era de 8 bits, por ejemplo: - La serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 Bytes de seis bits, estos Bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales, el CDC también se referia a cantidades de 12 bits como Bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. - El PDP-10 utilizaba instrucciones de ensamblado LDB y DPB para extraer o componer Bytes del tamaño arbitrario (entre 1 bit y 36 bits) de sus palabras de 36 bits, estas operaciones sobreviven hoy en el Common Lisp. -Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits. Múltiplos utilizando los prefijos del Sistema Internacional Prefijo

Símbolo prefijo

del Nom bre resu ltant e del prefi

Sím bolo del múlti plo del Byte

Fact or y valo r en el SI

jo + Byte Valor de referencia

Byte B

100 =1

Kilo

K

Kilo KB byte

103 = 100 0

Mega

M

Meg MB abyt e

106 = 1 000 000

Giga

G

Giga GB byte

109 = 1 000 000 000

Tera

T

Tera TB byte

101 2 = 1 000 000 000 000

Peta

P

Peta PB byte

101 5 = 1 000 000 000 000 000

Exa

E

Exa EB byte

101 8 = 1 000 000 000 000 000 000

Zetta

Z

Zett ZB abyt e

102 1 = 1 000 000 000 000 000 000

000 Yotta

Y

Yott YB abyt e

102 4 = 1 000 000 000 000 000 000 000 000

DIFERENCIA ENTRE BYTE Y BIT.

Las velocidades de transmisión de datos se miden normalmente en kilobits por segundo (kbps), mientras que el almacenamiento o tamaño de los archivos se especifica en bytes (Kilobytes, Megabytes, etc.). Sin embargo, muchos equipos de comunicación (módems, 'routers', etc.) y los navegadores o los programas de descarga de archivos especifican la velocidad en kilobytes por segundo, creando bastante confusión entre los usuarios. Cada byte se compone de 8 bits, que son la unidad mínima de información (un 0 ó un 1). Así, para convertir kilobits a kilobytes no hay más que dividir por 8, lo mismo que habría que hacer con las velocidades de transmisión: 256 kbits por segundo = 32 kbytes por segundo. Con esa velocidad de transmisión de datos, para descargar un Megabyte hay que emplear 32 segundos, sin olvidar que un Megabyte son 1.024 Kilobytes, aunque en algunos casos se emplea el sistema decimal en almacenamiento (1 MB = 1.000 KB).

1 byte

8 bits

1 kilobyte

1.024 bytes

8,192 kilobits

1 megabyte

1.024 kilobytes

8,3886 megabits

1 gigabyte

1.024 megabytes 8,5899 gigabits

Al contratar una conexión ADSL 512 / 128 kbps el ordenador recibirá datos a una velocidad máxima de 64 kilobytes por segundo (KB/s) en recepción de datos y de 32 KB/s de subida, cifras que además nunca se alcanzarán. Aunque es cierto que hay 8 bits en cada byte, la naturaleza asíncrona de la transmisión de datos por Internet requiere recibir 2 bits (de inicio y fin) por cada 8 de datos útiles. Así, hacen falta 10 bits para recibir 8 de información solicitada. Este factor, unido a variables como la pérdida de paquetes de información, calidad de la línea, congestión de redes y servidores, etc., convierte el rendimiento 'verdadero' de la línea en una ciencia inexacta. Pero a la hora de medir tasas de transmisión de datos, la conversión (1byte = 8bits) es precisa: al medir la velocidad tanto en Kilobits o Kilobytes por segundo los factores que influyen en el rendimiento afectan por igual. Es decir, el Kilobyte recibido no es un Kilobyte entero de información útil, lo mismo que ocurre si se mide en Kilobits. Para aproximarse más al rendimiento real de una conexión, se suelen dividir los Kilobits entre 9 e incluso entre 12, siendo 10 la media más aceptada, con lo que quedaría:

VELOCIDAD

DE

TRANSMISIÓN DATOS

DE

Conexión

Kilobits (kbps)

por

segundo Kilobytes por segundo Rendimiento estimado (KB/sec)

Módem 28,8K

28,8 kbps

3,6 KB/sec

2,8 KB/sec

Módem 33,6K

33,6 kbps

4,2 KB/sec

3,3 KB/sec

Módem 56K

53,3 kbps

6,6 KB/sec

5,2 KB/sec

ADSL 128 Kbps

128 kbps

16 KB/sec

12,5 KB/sec

ADSL 256 Kbps

256 kbps

32 KB/sec

25 KB/sec

ADSL 512 Kbps

512 kbps

64 KB/sec

50 KB/sec

ADSL 2Mb

2.000 kbps

250 KB/sec

196 KB/sec

CLASIFICACIÓN DE LOS DISPOSITIVOS DE ALMACENAMIENTO. Los Dispositivos de Almacenamiento se pueden clasificar de acuerdo al modo de acceso a los datos que contienen: ● Acceso secuencial: En el acceso secuencial, el elemento de lectura del dispositivo debe pasar por el espacio ocupado por la totalidad de los datos almacenados previamente al espacio ocupado físicamente por los datos almacenados que componen el conjunto de información a la que se desea acceder. ● Acceso aleatorio: En el modo de acceso aleatorio, el elemento de lectura accede directamente a la dirección donde se encuentra almacenada físicamente la información que se desea localizar sin tener que pasar previamente por la almacenada entre el principio de la superficie de grabación y el punto donde se almacena la información buscada. TIPOS DE DISPOSITIVOS DE ALMACENAMIENTO. Memorias: ● Memoria ROM: Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.

● Memoria RAM: Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de esto.

● Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran: El disco duro, El Disquete o Disco Flexible, etc...

● MEDIDAS DE ALMACENAMIENTO DE INFORMACIÓN. Byte: unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Kilobyte (Kb): Equivale a 1.024 bytes. Megabyte (Mb): Un millón de bytes o 1.048.576 bytes. Gigabyte (Gb): Equivale a mil millones de bytes. Dispositivos Magnéticos ● Cinta Magnética: Esta formada por una cinta de material plástico recubierta de material ferromagnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto supone un inconveniente puesto que para acceder a una información determinada se hace necesario leer todas las que le preceden, con la consiguiente pérdida de tiempo. ● Tambores Magnéticos: Están formados por cilindros con ● material magnético capaz de retener información, Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del eje de giro del tambor. El acceso a la información es directo y no secuencial. ● Disco Duro: Son en la actualidad el principal subsistema de almacenamiento de información en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en él se guardan los archivos de los programas.

● ● Disquette o Disco flexible: Un disco flexible o también disquette (en inglés floppy disk), es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o computadoras personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso.

Dispositivos Ópticos ● El CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros conjuntos de información invariable.

● CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo que les da una gran ventaja. Las unidades CD-RW pueden grabar información sobre discos CD-R y CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB.[3] ● DVD-ROM: es un disco compacto con capacidad de almacenar 4.7 GB de datos en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una sola cara. Los futuros medios de DVD-ROM serán capaces de almacenar datos en ambas caras del disco, y usar medios de doble capa para permitir a las unidades leer hasta cuatro niveles de datos almacenados en las dos caras del disco dando como resultado una capacidad de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los formatos de discos CD-R y CD-RW. Entre las aplicaciones que aprovechan la gran capacidad de almacenamiento de los DVD-ROM tenemos las películas de larga duración y los juegos basados en DVD que ofrecen videos MPEG-2 de alta resolución, sonido inmersivo Dolby AC-3, y poderosas graficas 3D.[3] (Ver anexo 6)

● DVD-RAM: este medio tiene una capacidad de 2.6 GB en una cara del disco y 5.2 GB en un disco de doble cara, Los DVD-RAM son capaces de leer cualquier disco CD-R o CD-RW pero no es capaz de escribir sobre estos. Los DVD-RAM son regrabables pero los discos no pueden ser leídos por unidades DVD-ROM.[3]

● Pc - Cards: La norma de PCMCIA es la que define a las PC Cards. Las PC Cards pueden ser almacenamiento o tarjetas de I/O. Estas son compactas, muy fiable, y ligeras haciéndolos ideal para notebooks, palmtop, handheld y los PDAs,. Debido a su pequeño tamaño, son usadas para el almacenamiento de datos, aplicaciones, tarjetas de memoria, cámaras electrónicas y teléfonos celulares. Las PC Cards tienen el tamaño

de una tarjeta del crédito, pero su espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3 milímetros (mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm espesor. Entre los producto más nuevos que usan PC Cards tenemos el Clik! PC Card Drive de Iomega esta unidad PC Card Tipo II la cual puede leer y escribir sobre discos Clik! de 40 MB de capacidad, esta unidad esta diseñada para trabajar con computadores portátiles con mínimo consumo de baterías, el tamaño de los discos es de 2x2 pulgadas.[3] (Ver anexo 7)

● Flash Cards: son tarjetas de memoria no volátil es decir conservan los datos aun cuando no estén alimentadas por una fuente eléctrica, y los datos pueden ser leídos, modificados o borrados en estas tarjetas. Con el rápido crecimiento de los dispositivos digitales como: asistentes personales digitales, cámaras digitales, teléfonos celulares y dispositivos digitales de música, las flash cards han sido adoptadas como medio de almacenamiento de estos dispositivos haciendo que estas bajen su precio y aumenten su capacidad de almacenamiento muy rápidamente. Recientemente Toshiba libero al mercado sus nuevas flash cards la SmartMedia de 64 MB y el super-thin 512M-bit chip. La SmartMedia es capaz de almacenar 72 imágenes digitales con una resolución de 1800x1200 pixels y más de 1 hora de música con calidad de CD. Entre los productos del mercado que usan esta tecnología tenemos los reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los PDAs de Compaq, el Microdrive de IBM con 340 MB de almacenamiento entre otros. [3]. Dispositivos Extraíbles ● Pen Drive o Memory Flash: Es un pequeño dispositivo de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas. Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portable, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de controladores especiales. En los equipos antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo. [4]

● Unidades de Zip: La unidad Iomega ZIP es una unidad de disco extraíble. Está disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE.

MARCAS DE LOS DISPOSITIVOS DE ALMACENAMIENTO DE UN COMPUTADOR. Hoy en día en el mercado, se encuentran infinidades de marcas de dispositivos de almacenamiento; debido a la gran demanda que surge y por la búsqueda de la mejor calidad y garantía del producto. Entre las marcas de mayor uso se tienen: ● SAMSUNG ● SEAGATE ● WESTERN DIGITAL ● MARKVISION ● TOSHIBA ● SONY ● IBM ● DYSAN ● LG ● HP ● MAXTOR ● KINGSTON ● IMATION ● TDK

EVOLUCIÓN HISTÓRICA DE LOS DISPOSITIVOS DE ALMACENAMIENTO EN GENERAL. Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta magnética, esta si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían leer todos los anteriores), por último aparecen los discos magnéticos los cuales eran reutilizables y también de acceso aleatorio. [2] En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de almacenamiento de información más generalizados en cualquier sistema, ya que estos tenían una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información. [2] A finales de la década de los 80‘ aparecen los dispositivos ópticos los cuales fueron utilizados en primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony colaboró en su desarrollo. [2] EVOLUCIÓN HISTÓRICA DE ALGUNOS DISPOSITIVOS ESPECÍFICOS

Discos Flexibles o Floppy Disk El disco flexible nació en IBM, y a inicios de la década de los 70‘ se introdujo en las unidades de esta marca. En 1972, salió al mercado el sistema 3740 dotado de una memoria de mesa basado en un disco flexible. [2] Estos discos flexibles o también llamados disquette fueron los más usados en los años 1980 y 1990, desde entonces han pasado por una serie de evoluciones en cuanto a tamaño y a capacidad de almacenamiento, comenzando de 8 pulgadas, luego con 5 1/4 y para finalizar los de 3 1/2, esto en cuanto a sus dimensiones, En cuanto a capacidad de almacenamiento o memorización pasaron de tener alrededor de 100 Kbytes a poseer más de 1 Mbytes en las unidas de 3 1/2. [4] No obstante a comienzos de los años 1990, al aumentar el tamaño del los programas informáticos, se requería mayor número de disquette para guardar una determinada información debido a que dichos disquettes no se daban a basto. Por esta razón a finales de los 90, la distribución de programas cambió gradualmente al CD-ROM, y se introdujeron formatos de copias de seguridad de alta densidad como el disco Zip. Con la llegada de Internet a las masas y de un ethernet barato, el disquete ya no era necesario para guardar la información, y fue por consecuencia suplantado.

Ahora se realizan copias de seguridad masivas en unidades de cinta de gran capacidad (como cintas de audio digital, ing: DAT) o en CD-ROM utilizando una grabadora de discos compactos. También se ha impuesto el uso de los llamados llaveros USB para poder transportar cómodamente en un reducido espacio una gran cantidad de información. [4] De todas formas, los fabricantes eran reacios a retirar la unidad de disco flexible de los ordenadores, argumentando que servían para mantener la compatibilidad con programas anteriores. La empresa Apple fue la primera en eliminar el disco flexible por completo con la puesta en circulación de su modelo iMac en 1998 el cual no tenía unidad de disco flexible. En marzo de 2003, Dell tomó una decisión similar al hacer la unidad de disco flexible opcional en sus ordenadores, una decisión considerada mayoritariamente como el final del disco flexible como medio de almacenamiento e intercambio de datos mayoritario. [4] Aunque los disquetes han sido desplazados por los Pen Driwers, los CD, etc.; todavía se siguen utilizando los disquetes con formato de 3 ½ pulgadas; ya que estos cuales están mucho mejor protegidos por un plástico rígido y un escudo, plástico o metálico, que protege una ranura existente en la superficie del material protector del disco (la ventana de lectura) que los discos de 5 ¼ pulgadas, envueltos en un plástico de mucho menos grosor y sin protección en la ventana de lectura. Su facilidad para el manejo habitual y las menores restricciones para su almacenamiento, mientras no sea utilizado el soporte físico, le dan importantes ventajas sobre los discos de 5 1/4 pulgadas. Disco Duro En el año 1952 IBM crea en San José (California) el primer laboratorio dedicado exclusivamente a la investigación y desarrollo de dispositivos de almacenamiento, dicho proyecto estaba dirigido por el Ingeniero Reynold Johnson, ingeniero de la conocida marca la cual ya destacaba por la invención de dispositivos mecánicos y electromagnéticos (inventor de los primeros correctores automáticos de exámenes). La idea de un dispositivo magnético de almacenamiento (que luego recibiría el nombre de Disco duro) consistente en una superficie giratoria y una cabeza que pudiera leer y escribir impulsos magnéticos sobre ella comenzaba aquí. [2] No fue sino hasta aproximadamente dos años después en que Johnson completaba este proyecto, que originalmente (y como casi todo en la informática hace unos años) sólo beneficiaria a los militares estadounidenses. El RAMAC ("Random Access Method of Accounting and Control") fue el primer disco duro de la historia de la informática. Contaba con 50 platos de 24 pulgadas de diámetro que giraban a una velocidad de 1200 rpm, un tiempo de acceso medio de 1 segundo y la entonces increíble capacidad de 5 megabytes. Gracias a las mejoras que le realizara Johnson a este dispositivo en los siguientes años aparece RAMAC-350 por el cual se hizo merecedor de varios premios. [2] A partir de entonces estos dispositivos no han dejado de evolucionar. Dicha evolución ha sido que han doblado su capacidad de almacenaje aproximadamente cada 18 meses bajando sus costos, aumentando su capacidad de almacenaje y aumentando su velocidad. Actualmente los discos están trabajando con una interfaz de mayor velocidad denominada UltraDMA/66 o UltraATA/66 la cual posee el doble de la velocidad aproximadamente 66.7 Mbytes por segundo que la antigua UltraDMA/33 que fue el modelo estándar usado durante varios años. [3] Estructura del Disco Duro. Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro atravesados por un eje, y giran continuamente a gran velocidad. [5] Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 micropulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1). [5] La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar. [5]

Tecnologías Futuras. Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo. De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006. Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años. Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado. Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades. [7] Ciclo básico de operación de la computadora. Si tomamos el computador como sistema encontramos que el ciclo básico de operación de las computadoras está basado principalmente por la entrada, proceso y salida de la información. Entrada: es un dispositivo donde se introducen en la computadora los datos e instrucciones, que bien son los ingresos del sistema que pueden ser recursos materiales, recursos humanos o información. Este constituye la fuerza de arranque que suministra al sistema sus necesidades operativas. Las entradas pueden ser en serie, aleatorias (probabilísticas), retroacción (retroalimentación). En serie: es el resultado o salidas de un sistema anterior con el cual el sistema en estudio está relacionado en forma directa. Aleatoria: es decir al azar, se realiza en sentido estadístico, representan potenciales para un sistema. Retroacción: es la retro introducción, es una parte de las salidas del sistema en sí mismo. Proceso: es lo que transforma una entrada al sistema en una salida, como puede ser una máquina, un individuo, una computadora, un producto químico, una tarea realizada por una persona de la urbanización, etc. Caja negra: Se utiliza para representar a los sistemas cuando no sabemos qué elementos o cosas componen al sistema o proceso, pero sabemos que a determinadas entradas corresponden determinadas salidas y con ello poder concluir, presumiendo que a determinados estímulos las variables funcionaran en ciertos sentidos. Salidas: es un dispositivo por donde se obtienen los resultados de los programas ejecutados en la computadora o en otras palabras son los resultados que se obtienen al procesar las entradas. Estas pueden adoptar en forma de productos, servicios e información. Las mismas son el resultado del funcionamiento del sistema o alternativamente el propósito para el cual existe el sistema. Retroalimentación: se produce cuando las salidas del sistema o la influencia de la salida del sistema hay algo incorrecto en el contexto por lo tanto vuelven a ingresar al sistema como recurso de información. Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información. Microsoft Windows La incorporación del ordenador o computadora en las oficinas, constituyó una revolución en los sistemas ofimáticos, ya que las máquinas ofrecían el medio para realizar comunicaciones e intercambio de información instantáneos entre compañeros de trabajo, recursos y equipos. Los accesorios, como el mouse (ratón), facilitan el desplazamiento dentro de las aplicaciones (programas de computadora). Los rápidos avances tecnológicos han mejorado los sistemas informáticos y, al mismo tiempo, han disminuido los precios, haciendo que los equipos sean más asequibles.

La supercomputadora Cray-1 (diseñada por Seymour Cray de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz de ejecutar más de 100 millones de operaciones de coma flotante por segundo. Entre los numerosos problemas tecnológicos que hubo que resolver, uno de los más importantes fue eliminar el calor generado por la alta velocidad de las operaciones lógicas. Esto se consiguió montando los circuitos sobre placas verticales enfriadas mediante un sistema basado en gas freón. Aunque en la actualidad ya se han construido máquinas más rápidas, la Cray-1 sigue utilizándose para estudios matemáticos de problemas muy complejos, como por ejemplo el análisis del habla, la previsión climatológica e interrogantes básicos en física y química. Además, la Cray-1 se utiliza como unidad de medida informal para las supercomputadoras más nuevas, algunas de las cuales se proyectan ahora para ser equivalentes a 1.000 crays. Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica. periférico o dispositivo: complemento de un ordenador o computadora, como un ratón (mouse) o un módem. El accesorio ofrece una funcionalidad que no está disponible en la máquina original, pero que no es necesaria para el funcionamiento de la misma. Microprocesador, circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip. Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, que sirven para acelerar el acceso a los dispositivos externos de almacenamiento de datos. Los microprocesadores modernos funcionan con una anchura de

bus de 64 bits (un bit es un dígito binario, una unidad de información que puede ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64 bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados es de unos 300 megahercios (MHz) —unos 300 millones de ciclos por segundo—, lo que permite ejecutar unos 1.000 millones de instrucciones cada segundo. Bit, en informática, acrónimo de Binary Digit (dígito binario), que adquiere el valor 1 o 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador, y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9. Byte, en informática, unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Como el byte representa sólo una pequeña cantidad de información, la cantidad de memoria y de almacenamiento de una máquina suele indicarse en kilobytes (1.024 bytes) o en megabytes (1.048.576 bytes). Kilobyte, abreviado KB, K o Kbyte. Equivale a 1.024 bytes. Mega- (M), prefijo que significa 1 millón (106). En informática, basada en el sistema binario (en base 2), mega- tiene un valor literal de 1.048.576, que es la potencia de 2 (220) más cercana a un millón. Gigabyte, el significado exacto varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes. Transmisión de datos, en informática, transmisión de información de un lugar a otro, tanto dentro de un ordenador o computadora (por ejemplo, desde una unidad de disco a la memoria de acceso aleatorio), como entre éste y un dispositivo externo (dos ordenadores o un servidor de archivos, o un ordenador perteneciente a una red). La velocidad de transmisión de datos se denomina también coeficiente de transmisión o velocidad de transferencia de datos y suele medirse en bits por segundo (bps). La velocidad de transmisión nominal es por lo general bastante mayor que la efectiva, debido a los tiempos de parada, procedimientos de verificación de errores y otros retrasos. Además, la transmisiones de datos desde diferentes orígenes a distintos destinos suelen competir entre sí en caso de utilizar la misma ruta de datos, como por ejemplo en una red o en el bus de un sistema informático. Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo. El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema básico de entrada / salida'). Aunque, técnicamente, los microprocesadores todavía se consideran hardware, partes de su función también están asociadas con el software. Como los microprocesadores tienen tanto aspectos de hardware como de software, a veces se les aplica el término intermedio de microprogramación, o firmware. MINIATURIZACIÓN. La invención del microchip permitió reducir el tamaño de los ordenadores, primero lo suficiente para colocarlos encima de la mesa, y más tarde para llevarlos en la mano. Los dispositivos de mano más completos disponen de varios megabytes (millones de caracteres) de espacio para almacenar archivos, enorme capacidad de cálculo, con utilidades de hoja de cálculo y gráficos, y los medios necesarios para enviar y recibir correo electrónico y recorrer Internet. En la fotografía se utiliza un pequeño ordenador para reprogramar el sistema electrónico de control de una moderna motocicleta.

Un sistema informático suele estar compuesto por una unidad central de proceso (CPU), dispositivos de entrada, dispositivos de almacenamiento y dispositivos de salida. La CPU incluye una unidad aritmético-lógica (ALU), registros, sección de control y bus lógico. La unidad aritmético-lógica efectúa las operaciones aritméticas y lógicas. Los registros almacenan los datos y los resultados de las operaciones. La unidad de control regula y controla diversas operaciones. El bus interno conecta las unidades de la CPU entre sí y con los componentes externos del sistema. En la mayoría de las computadoras, el principal dispositivo de entrada es el teclado. Dispositivos de almacenamiento son los discos duros, flexibles (disquetes) y compactos (CD). Dispositivos de salida que permiten ver los datos son los monitores e impresoras. HARDWARE DE ENTRADA. El hardware de entrada consta de dispositivos externos —esto es, componentes situados fuera de la CPU de la computadora— que proporcionan información e instrucciones. Un lápiz óptico es un puntero con un extremo fotosensible que se emplea para dibujar directamente sobre la pantalla, o para seleccionar información en la pantalla pulsando un botón en el lápiz óptico o presionando el lápiz contra la superficie de la pantalla. El lápiz contiene sensores ópticos que identifican la parte de la pantalla por la que se está pasando. Un mouse, o ratón, es un dispositivo apuntador diseñado para ser agarrado con una mano. Cuenta en su parte inferior con un dispositivo detector (generalmente una bola) que permite al usuario controlar el movimiento de un cursor en la pantalla deslizando el mouse por una superficie plana. Para seleccionar objetos o elegir instrucciones en la pantalla, el usuario pulsa un botón del mouse. Un joystick es un dispositivo formado por una palanca que se mueve en varias direcciones y dirige un cursor u otro objeto gráfico por la pantalla de la computadora. Un teclado es un dispositivo parecido a una máquina de escribir, que permite al usuario introducir textos e instrucciones. Algunos teclados tienen teclas de función especiales o dispositivos apuntadores integrados, como trackballs (bolas para mover el cursor) o zonas sensibles al tacto que permiten que los movimientos de los dedos del usuario dirijan un cursor en la pantalla. Un digitalizador óptico emplea dispositivos fotosensibles para convertir imágenes (por ejemplo, una fotografía o un texto) en señales electrónicas que puedan ser manipuladas por la máquina. Por ejemplo, es posible digitalizar una fotografía, introducirla en una computadora e integrarla en un documento de texto creado en dicha computadora. Los dos digitalizadores más comunes son el digitalizador de campo plano (similar a una fotocopiadora de oficina) y el digitalizador manual, que se pasa manualmente sobre la imagen que se quiere procesar. Un micrófono es un dispositivo para convertir sonidos en señales que puedan ser almacenadas, manipuladas y reproducidas por el ordenador. Un módulo de reconocimiento de voz es un dispositivo que convierte palabras habladas en información que el ordenador puede reconocer y procesar. Un módem es un dispositivo que conecta una computadora con una línea telefónica y permite intercambiar información con otro ordenador a través de dicha línea. Todos los ordenadores que envían o reciben información deben estar conectados a un módem. El módem del aparato emisor convierte la información enviada en una señal analógica que se transmite por las líneas telefónicas hasta el módem receptor, que a su vez convierte esta señal en información electrónica para el ordenador receptor. Los lápices ópticos son punteros electrónicos que permiten al usuario modificar los diseños en pantalla. Este puntero, que se sostiene en la mano, contiene sensores que envían señales a la computadora cada vez que se registra luz. La pantalla de la computadora no se enciende entera, sino fila por fila 60 veces por segundo, mediante un haz de electrones. Por ello, la computadora puede determinar la posición del lápiz cada vez que detecta el haz de electrones. Los lápices ópticos suelen utilizarse en la tecnología CAD/CAM (diseño y fabricación asistidos por

computadora) debido a su gran flexibilidad. Aquí vemos a un diseñador utilizando un lápiz óptico para modificar un plano en una pantalla de computadora.

HARDWARE DE SALIDA El hardware de salida consta de dispositivos externos que transfieren información de la CPU de la computadora al usuario informático. La pantalla convierte la información generada por el ordenador en información visual. Las pantallas suelen adoptar una de las siguientes formas: un monitor de rayos catódicos o una pantalla de cristal líquido (LCD, siglas en inglés). En el monitor de rayos catódicos, semejante a un televisor, la información procedente de la CPU se representa empleando un haz de electrones que barre una superficie fosforescente que emite luz y genera imágenes. Las pantallas LCD son más planas y más pequeñas que los monitores de rayos catódicos, y se emplean frecuentemente en ordenadores portátiles. Las impresoras reciben textos e imágenes de la computadora y los imprimen en papel. Las impresoras matriciales emplean minúsculos alambres que golpean una cinta entintada formando caracteres. Las impresoras láser emplean haces de luz para trazar imágenes en un tambor que posteriormente recoge pequeñas partículas de un pigmento negro denominado tóner. El tóner se aplica sobre la hoja de papel para producir una imagen. Las impresoras de chorro de tinta lanzan gotitas de tinta sobre el papel para formar caracteres e imágenes. Impresora, periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, por ejemplo transparencias. Las impresoras se pueden dividir en categorías siguiendo diversos criterios. La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser. Otros posibles criterios para la clasificación de impresoras son los siguientes: tecnología de impresión, formación de los caracteres, método de transmisión, método de impresión y capacidad de impresión. Tecnología de impresión: en el campo de las microcomputadoras destacan las impresoras matriciales, las de chorro de tinta, las láser, las térmicas y, aunque algo obsoletas, las impresoras de margarita. Las impresoras matriciales pueden subdividirse según el número de agujas que contiene su cabezal de impresión: 9, 18, 24.

HARDWARE DE ALMACENAMIENTO. El hardware de almacenamiento sirve para almacenar permanentemente información y programas que el ordenador deba recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y la memoria. Existen varios tipos de discos: duros, flexibles, magneto-ópticos y compactos. Las unidades de disco duro almacenan información en partículas magnéticas integradas en un disco. Las unidades de disco duro, que suelen ser una parte permanente de la computadora, pueden almacenar grandes cantidades de información y recuperarla muy rápidamente. Las unidades de disco flexible también almacenan información en partículas magnéticas integradas en discos intercambiables, que de hecho pueden ser flexibles o rígidos. Los discos flexibles almacenan menos información que un disco duro, y la recuperación de la misma es muchísimo más lenta. Las unidades de disco magneto-óptico almacenan la información en discos intercambiables sensibles a la luz láser y a los campos magnéticos. Pueden almacenar tanta información como un disco duro, pero la velocidad de recuperación de la misma es algo menor. Las unidades de disco compacto, o CD-ROM, almacenan información en las cavidades grabadas en la superficie de un disco de material reflectante. La información almacenada en un CD-ROM no puede borrarse ni sustituirse por otra información. Los CD-ROM pueden almacenar aproximadamente la misma información que un disco duro, pero la velocidad de recuperación de información es menor. La memoria está formada por chips que almacenan información que la CPU necesita recuperar rápidamente. La memoria de acceso aleatorio (RAM, siglas en inglés) se emplea para almacenar la información e instrucciones que hacen funcionar los programas de la computadora. Generalmente, los programas se transfieren desde una unidad de disco a la RAM. La RAM también se conoce como memoria volátil, porque la información contenida en los chips de memoria se pierde cuando se desconecta el ordenador. La memoria de lectura exclusiva (ROM, siglas en inglés) contiene información y software cruciales que deben estar permanentemente disponibles para el funcionamiento de la computadora, por ejemplo el sistema operativo, que dirige las acciones de la máquina desde el arranque hasta la desconexión. La ROM se denomina memoria no volátil porque los chips de memoria ROM no pierden su información cuando se desconecta el ordenador. Algunos dispositivos se utilizan para varios fines diferentes. Por ejemplo, los discos flexibles también pueden emplearse como dispositivos de entrada si contienen información que el usuario informático desea utilizar y procesar. También pueden utilizarse como dispositivos de salida si el usuario quiere almacenar en ellos los resultados de su computadora. El disco duro de una computadora se utiliza para guardar datos en soporte magnético.

HARDWARE DE PROCESAMIENTO.

El hardware de procesamiento son todos los dispositivos que permiten procesar los datos y generar información. El hardware de procesamiento es el "cerebro" de la computadora y es el encargado de interpretar instrucciones y procesar datos. En él se encuentra la CPU, que está dividida en memoria (almacenamiento primario), unidad aritmética lógica y unidad o procesador de control. La CPU es la unidad central de procesamiento, dentro de ella está el almacenamiento primario, donde esta el ROM (Read Only Memory) que no se borra, solo se lee. El ROM también tiene programas que permiten el arranque de la máquina. Dentro del almacenamiento primario también está la RAM (Random Access Memory) es una memoria de acceso aleatorio que sirve para leer y escribir en cualquier lugar. La usan los programas y es volátil (si apagas la máquina se borra). Dentro de la CPU también está la UAL (Unidad Aritmética Lógica) que hace cálculos aritméticos y lógicos. La última (pero no la menos importante) es la UC (Unidad de Control) que es el cerebro de la CPU, controla, supervisa y coordina.

El microprocesador se monta en la llamada placa base, sobre un zócalo conocido como zócalo de CPU, que permite las conexiones eléctricas entre los circuitos de la placa y el procesador. Sobre el procesador ajustado a la placa base se fija un disipador térmico de un material con elevada conductividad térmica, que por lo general es de aluminio, y en algunos casos de cobre. Éste es indispensable en los microprocesadores que consumen bastante energía, la cual, en gran parte, es emitida en forma de calor: en algunos casos pueden consumir tanta energía como una lámpara incandescente (de 40 a 130 vatios). Adicionalmente, sobre el disipador se acopla uno o dos ventiladores (raramente más), destinados a forzar la circulación de aire para extraer más rápidamente el calor acumulado por el disipador y originado en el microprocesador. Complementariamente, para evitar daños por efectos térmicos, también se suelen instalar sensores de temperatura del microprocesador y sensores de revoluciones del ventilador, así como sistemas automáticos que controlan la cantidad de revoluciones por unidad de tiempo de estos últimos. La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados en la placa madre. La placa base, también conocida como placa madre o con el anglicismo board,13 es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se transmiten los datos dentro y hacia afuera del sistema. La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red,puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc. También, la tendencia en los últimos años es eliminar elementos separados en la placa base e integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados System on a Chip que consiste en un único circuito integrado que integra varios módulos electrónicos en

su interior, tales como un procesador, un controlador de memoria, una GPU, Wi-Fi, bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual funcionalidad con módulos electrónicos separados. La figura muestra una aplicación típica, en la placa principal de un teléfono móvil.

MEMORIA RAM

Memoria RAM. Del inglés Random Access Memory, literalmente significa "memoria de acceso aleatorio". El término tiene relación con la característica de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad también se conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo"; 14 a diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica. Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual significa que tienden a perder sus datos almacenados en breve tiempo (por descarga, aún estando con alimentación eléctrica), por ello necesitan un circuito electrónico específico que se encarga de proveer el llamado "refresco" (de energía) para mantener su información. La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce como ―módulos‖. Ellos albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal. MEMORIA RAM DINÁMICA.

Es la presentación más común en computadores modernos (computador personal, servidor); son tarjetas de circuito impreso que tienen soldados circuitos integrados de memoria por una o ambas caras, además de otros elementos, tales como resistores y condensadores. Esta tarjeta posee una serie de contactos metálicos (con un recubrimiento de oro) que permite hacer la conexión eléctrica con el bus de memoria del controlador de memoria en la placa base. Los integrados son de tipo DRAM, memoria denominada "dinámica", en la cual las celdas de memoria son muy sencillas (un transistory un condensador), permitiendo la fabricación de memorias con gran capacidad (algunos cientos de Megabytes) a un costo relativamente bajo. Las posiciones de memoria o celdas, están organizadas en matrices y almacenan cada una un bit. Para acceder a ellas se han ideado varios métodos y protocolos cada uno mejorado con el objetivo de acceder a las celdas requeridas de la manera más eficiente posible.

Entre las tecnologías recientes para integrados de memoria DRAM usados en los módulos RAM se encuentran: ● SDR SDRAM: Memoria con un ciclo sencillo de acceso por ciclo de reloj. Actualmente en desuso, fue popular en los equipos basados en el Pentium IIIy los primeros Pentium 4. ● DDR SDRAM: Memoria con un ciclo doble y acceso anticipado a dos posiciones de memoria consecutivas. Fue popular en equipos basados en los procesadores Pentium 4 y Athlon 64. ● DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de memoria consecutivas. ● DDR3 SDRAM: Memoria con un ciclo doble y acceso anticipado a ocho posiciones de memoria consecutivas. Es el tipo de memoria más actual, está reemplazando rápidamente a su predecesora, la DDR2. Los estándares JEDEC, establecen las características eléctricas y las físicas de los módulos, incluyendo las dimensiones del circuito impreso. Los estándares usados actualmente son: ● DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas), 184 pines (usadas con DDR y el obsoletoS MM) y 240 (para las tecnologías de memoria DDR2 y DDR3). ● SO-DIMM Para computadores portátiles, es una miniaturización de la versión DIMM en cada tecnología. Existen de 144 pines (usadas con SDR), 200 pines (usadas con DDR y DDR2) y 240 pines (para DDR3). MEMORIAS RAM ESPECIALES.

Hay memorias RAM con características que las hacen particulares, y que normalmente no se utilizan como memoria central de la computadora; entre ellas se puede mencionar: ● SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más rápida que la DRAM (Dynamic RAM). El término "estática" deriva del hecho que no necesita el refresco de sus datos. Si bien esta RAM no requiere circuito de refresco, ocupa más espacio y utiliza más energía que la DRAM. Este tipo de memoria, debido a su alta velocidad, es usada como memoria caché. ● NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no volátil (mantiene la información en ausencia de alimentación eléctrica). Hoy en día, la mayoría de memorias NVRAM son memorias flash, muy usadas para teléfonos móviles y reproductores portátiles de MP3. ● VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM que se utiliza en las tarjetas gráficas del computador. La característica particular de esta clase de memoria es que es accesible de forma simultánea por dos dispositivos. Así, es posible que la CPU grabe información en ella, al tiempo que se leen los datos que serán visualizados en el Monitor de computadora. De las anteriores a su vez, hay otros subtipos más.

Periféricos . Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos.10 Los periféricos son los que permiten realizar las operaciones conocidas como de entrada/salida (E/S).11 Aunque son estrictamente considerados ―accesorios‖ o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80, muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos.

CONEXIONES DE HARDWARE

Para funcionar, el hardware necesita unas conexiones materiales que permitan a los componentes comunicarse entre sí e interaccionar. Un bus constituye un sistema común interconectado, compuesto por un grupo de cables o circuitos que coordina y transporta información entre las partes internas de la computadora. El bus de una computadora consta de dos canales: uno que la CPU emplea para localizar datos, llamado bus de direcciones, y otro que se utiliza para enviar datos a una dirección determinada, llamado bus de datos. Un bus se caracteriza por dos propiedades: la cantidad de información que puede manipular simultáneamente (la llamada 'anchura de bus') y la rapidez con que puede transferir dichos datos. Una conexión en serie es un cable o grupo de cables utilizado para transferir información entre la CPU y un dispositivo externo como un mouse, un teclado, un módem, un digitalizador y algunos tipos de impresora. Este tipo de conexión sólo transfiere un dato de cada vez, por lo que resulta lento. La ventaja de una conexión en serie es que resulta eficaz a distancias largas. Una conexión en paralelo utiliza varios grupos de cables para transferir simultáneamente más de un bloque de información. La mayoría de los digitalizadores e impresoras emplean este tipo de conexión. Las conexiones en paralelo son mucho más rápidas que las conexiones en serie, pero están limitadas a distancias menores de 3 m entre la CPU y el dispositivo externo.

UNIDAD CENTRAL DE PROCESO O UCP Conocida por sus siglas en inglés, CPU, circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora). FUNCIONAMIENTO DE LA CPU. Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada. Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como concepto general, el software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son los sistemas operativos (software del sistema), que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración de la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Constituyen dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado para escribir programas (véase Lenguaje de programación). Además de estas categorías basadas en tareas, varios tipos de software se describen basándose en su método de distribución. Entre estos se encuentran los así llamados programas enlatados, el software desarrollado por compañías y vendido principalmente por distribuidores, el freeware y software de dominio público, que se ofrece sin

costo alguno, el shareware, que es similar al freeware, pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen profesionalmente y, por último, el infame vapourware, que es software que no llega a presentarse o que aparece mucho después de lo prometido.

ciclo de máquina computacional El control numérico (CN) es un sistema de automatización de máquinas herramienta que son operadas mediante comandos programados en un medio de almacenamiento, en comparación con el mando manual mediante volantes o palancas. Las primeras máquinas de control numérico se construyeron en los años 1940 y 1950, basadas en las máquinas existentes con motores modificados cuyos mandos se accionan automáticamente siguiendo las instrucciones dadas en un sistema de tarjeta perforada. Estos servomecanismos iniciales se desarrollaron rápidamente con equipos analógicos y digitales. El abaratamiento y miniaturización de los microprocesadores ha generalizado la electrónica digital en las máquinas herramienta, lo que dio lugar a la denominación control numérico por computadora , control numérico por computador o control numérico computarizado(CNC), para diferenciarlas de las máquinas que no tenían computadora. En la actualidad se usa el término control numérico para referirse a este tipo de sistemas, con o sin computadora.1 Este sistema ha revolucionado la industria debido al abaratamiento de microprocesadores y a la simplificación de la programación de las máquinas de CN.

CICLO DE

CONTROL

La función principal de la unidad de control de la UCP es dirigir la secuencia de pasos de modo que la computadora lleve a cabo un ciclo completo de ejecución de una instrucción, y hacer esto con todas las instrucciones de que conste el programa. Los pasos para ejecutar una instrucción cualquiera son los siguientes: I. Ir a la memoria y extraer el código de la siguiente instrucción (que estará en la siguiente celda de memoria por leer). Este paso se llama ciclo de fetch en la literatura computacional (to fetch significa traer, ir por). II. Decodificar la instrucción recién leída (determinar de que instrucción se trata). III. Ejecutar la instrucción.

IV. Prepararse para leer la siguiente casilla de memoria (que contendrá la siguiente instrucción), y volver al paso 1 para continuar. La unidad de control ejecutará varias veces este ciclo de cuatro ―instrucciones alambradas‖ a una enorme velocidad. Se llama así a estas instrucciones porque no residen en memoria, ni fueron escritas por ningún programador, sino que la máquina las ejecuta directamente por medios electrónicos, y lo hará mientras esté funcionando (mientras este encendida) en una computadora es a razón de cientos de miles (o incluso millones) de veces por segundo. Se ha definido ya el modelo de von Neumann. Ahora se pondrá a funcionar sobre nuestro pequeño programa de ejemplo (que ya esta cargado en la memoria).