HISTORIA Y EVOLUCIÓN

Historia de la tarjeta madre






'En 1941 comenzó a funcionar el primer ordenador electrónico, el Colossus.Desde aquel primer ordenador hasta nuestros días, son muchos los aspectos que han cambiado en el mundo de la informática y computación, sin embargo, desde la creación de la E.N.I.A.C. se sigue manteniendo la arquitectura Von Neumann. Básicamente, esta arquitectura hace de la computadora la máquina que todos conocemos, una entrada de información, un procesamiento de la información con las instrucciones almacenadas en una memoria, y una salida de la información procesada.Las primeras tarjetas madre, o computadoras en una tarjeta, como se les llamaba en aquel entonces, integraban la funcionalidad elemental para su propio funcionamiento, y generalmente eran ingenios de laboratorio. La primera computadora en una tarjeta que llegó al mercado fue la MITS Altair 8800 en 1974, que contaba con una tarjeta base para incorporar el procesador, la RAM y su circuitería de soporte, en un transporte de datos S-100. En 1975 la Mycron 1 llega al mercado, con algunas mejoras. 
La historia de la tarjeta madre, como se conoce actualmente inicia en 1947 cuando William Shockley, Walter Brattain y John Bardeen, científicos de los laboratorios Bell, muestran su invento, el transistor amplificador de punto-contacto, iniciando con esto el desarrollo de la miniaturización de circuitos electrónicos; este es el invento que eventualmente dividiría la historia de las computadoras de la primera y segunda generación.
Otro invento que contribuyó de manera decisiva a la reación de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real Británico, que en 1952 presentó una proposición sobre la utilización de un bloque de material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de conexión.
Fue hasta 1961 cuando Fairchild Semiconductor anuncia el primer circuito integrado comercialmente disponible, iniciando con esto la competencia por la alta integración de componentes en espacios cada vez más reducidos; la miniaturización, y con esto la búsqueda de la computadora en una pastilla.
Con estos inventos se comienza a trabajar en la computadora en una tarjeta.

El Abaco:

Quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
La Pascalina
El inventor y pintor Leonardo Da Vencí (1452 - 1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623 -1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamó Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
La locura de Babbage
Charles Babbage (1793 - 1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias, Babbage concibió la idea de una "máquina analítica". En esencia ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecánicos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica, hubiera adelantado el nacimiento de la computadora electrónica por varias décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia.

La primera tarjeta perforada

El telar de tejido, inventado en 1801 por el Francés Joseph Marie Jackard (1753 - 1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860 - 1929). La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría más que los mismos 10 años para terminarlo. La oficina de censos comisionó la estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la oficina se ahorró alrededor de U$$ 5.000.000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación". Durante décadas, desde mediados de los cincuenta la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.), el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario.
En 1946, se terminó de construir una computadora electrónica
Completamente operacional a gran escala, y se llamó ENIAC (Electronic Numerical Integrator And Computer – integrador numérico y calculador electrónico). La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 metros cuadrados, llenaba un cuarto de 6m x 12m y contenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que tenían más de 6,000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con el sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9). La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba.


Generaciones de computadoras

La evolución de las computadoras, se subdividió en 4 generaciones:

Primera Generación (1951-1958)

Las computadoras de la primera generación emplearon bulbos para procesar información. Se ingresaban datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran más grandes y generaban más calor que los modelos contemporáneos. La IBM tenía el monopolio de los equipos de procesamiento de datos basándose en tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, relojes, etc.
Segunda Generación (1959-1964)
Con el invento del transistor se hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Pero su costo seguía siendo una porción significativa. Las computadoras de la Segunda Generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario.
Tercera Generación (1964-1971)
Las computadoras de la Tercera Generación emergieron con el desarrollo de los circuitos integrados, que posibilitó la fabricación de varios transistores en un único sustrato de silicio. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Cuarta Generación (1971 a la fecha)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleo magnético, por la de Chips de silicio y la colocación de muchos más componentes en un Chip (producto de la micro miniaturización* de los circuitos electrónicos). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (Integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Además los investigadores intentan utilizar la superconductividad (fenómeno de disminución de la resistencia eléctrica)
Memoria Rom



Memoria De Solo Lectura:

La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente para contener el firmware (programa que está estrechamente ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u otro contenido vital para el funcionamiento del dispositivo, como los programas que ponen en marcha el ordenador y realizan los diagnósticos.
En su sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente, y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria de solo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.
Historia
El tipo más simple de ROM en estado sólido es de la misma antigüedad que la propia tecnología semiconductora. Las puertas lógicas combinacionales pueden usarse en conjunto para indexar una dirección de memoria de n bits en valores de m bits de tamaño (una tabla de consultas). Con la invención de los circuitos integrados se desarrolló la máscara ROM. La máscara ROM consistía en una cuadrícula de líneas formadas por una palabra y líneas formadas por un bit seleccionadas respectivamente a partir de cambios en el transistor. De esta manera podían representar una tabla de consultas arbitraria y un lapso de propagación deductible.
En las máscaras ROM los datos están físicamente codificados en el mismo circuito, así que solo se pueden programar durante la fabricación. Esto acarrea serias desventajas:
1.      Solo es económico comprarlas en grandes cantidades, ya que el usuario contrata fundiciones para producirlas según sus necesidades.
2.      El tiempo transcurrido entre completar el diseño de la máscara y recibir el resultado final es muy largo.
3.      No son prácticas para I+D (Investigación y Desarrollo)  por el hecho de que los desarrolladores necesitan cambiar el contenido de la memoria mientras refinan un diseño.
4.      Si un producto tiene un error en la máscara, la única manera de arreglarlo es reemplazando físicamente la ROM por otra.
Los desarrollos posteriores tomaron en cuenta estas deficiencias, así pues se creó la memoria de solo lectura programable (PROM). Inventada en 1956, permitía a los usuarios modificarla solo una vez, alterando físicamente su estructura con la aplicación de pulsos de alto voltaje. Esto eliminó los problemas 1 y 2 antes mencionados, ya que una compañía podía pedir un gran lote de PROMs vacías y programarlas con el contenido necesario elegido por los diseñadores. En 1971 se desarrolló la memoria de solo lectura programable y borrable (EPROM) que permitía reiniciar su contenido exponiendo el dispositivo a fuertes rayos ultravioleta. De esta manera erradicaba el punto 3 de la anterior lista. Más tarde, en 1983, se inventó la EEPROM, resolviendo el conflicto número 4 de la lista ya que se podía reprogramar el contenido mientras proveyese un mecanismo para recibir contenido externo (por ejemplo, a través de un cable serial). En medio de la década de 1980 Toshiba inventó la memoria flash, una forma de EEPROM que permitía eliminar y reprogramar contenido en una misma operación mediante pulsos eléctricos miles de veces sin sufrir ningún daño.
Todas estas tecnologías mejoraron la versatilidad y flexibilidad de la ROM, pero lo hicieron a expensas de un alto incremento del costo por chip. Por eso las máscaras ROM se mantuvieron como la solución económica durante bastante tiempo. Esto fue así aproximadamente hasta el año 2000, cuando el precio de las memorias reprogramables hubo descendido lo suficiente como para comenzar a desplazar a las ROM no reprogramables del mercado.
El producto más reciente es la memoria NAND, otra vez desarrollada por Toshiba. Los diseñadores rompieron explícitamente con las prácticas del pasado, afirmando que enfocaba "ser un reemplazo de los discos duros", más que tener el tradicional uso de la ROM como una forma de almacenamiento primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo un rendimiento comparable al de los discos duros, una mejor tolerancia a los shocks físicos, una miniaturización extrema (como por ejemplo memorias USB y tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.



Uso Para Almacenamiento De Software:

Los ordenadores domésticos a comienzos de los años 1980 venían con todo su sistema operativo en ROM. No había otra alternativa razonable ya que las unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. Actualmente los sistemas operativos en general ya no van en ROM. Todavía los ordenadores pueden dejar algunos de sus programas en memoria ROM, pero incluso en este caso, es más frecuente que vaya en memoria flash. Los teléfonos móviles y los asistentes personales digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en memoria flash).
Algunas de las videoconsolas que usan programas basados en la memoria ROM son la Nintendo, Súper Nintendo, Nintendo 64, Game Boy, Game Boy Advance, , Nintendo DS, Nintendo 3DS, etc. Estas memorias ROM, pegadas a cajas de plástico aptas para ser utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por extensión la palabra ROM puede referirse también a un archivo de datos que contenga una imagen del programa que se distribuye normalmente en memoria ROM, como una copia de un cartucho de videojuego.
En la actualidad se usa mucho el termino ROM principalmente en lo que se trata del sistema operativo ANDROID presente en gran variedad de teléfonos inteligentes (smart pone). En Android una ROM es un archivo que contiene todo el sistema operativo listo para instalar, o más bien ser transferido a la memoria flash del teléfono.
La cuestión es porqué se le llaman ROM a estos archivos, pues bien hace mucho tiempo, los primeros ordenadores domésticos, llevaban grabado el sistema operativo en memoria ROM, lo que quiere decir que si querías actualizar el SO tenias que desoldar la versión anterior para posteriormente soldar la nueva versión. Más tarde se crearon las memorias ROM actualizables, las cuales eran flasheables mediante maquinas especiales, en este caso quitabas el chip, lo enchufabas en la máquina y cargabas el contenido nuevo, para después volver a conectar el chip. Por último con el avance del tiempo, el coste de la fabricación de memorias flash se abarato y ya no merece la pena tener memorias de solo lectura, pero los dispositivos de almacenamiento en los que nos se suele escribir y solo son de lectura se siguen definiendo como memorias ROM, como es el caso de las BIOS de los PC o de la memoria ROM de los teléfonos, que aunque se llamen así se pueden escribir en ellas.
Entonces una ROM de ANDROID es una copia de todos los ficheros que son necesarios para ejecutar el sistema operativo y las aplicaciones que vengan integradas en este. Es donde reside tanto el kernel de linux que se ejecuta, como todos los iconos e imágenes de las aplicaciones. 


Uso Para Almacenamiento De Datos

Como la ROM no puede ser modificada (al menos en la antigua versión de máscara), solo resulta apropiada para almacenar datos que no necesiten ser modificados durante la vida de este dispositivo. Con este fin, la ROM se ha utilizado en muchos ordenadores para guardar tablas de consulta, utilizadas para la evaluación de funciones matemáticas y lógicas. Esto era especialmente eficiente cuando la unidad central de procesamiento era lenta y la ROM era barata en comparación con la RAM. De hecho, una razón de que todavía se utilice la memoria ROM para almacenar datos es la velocidad, ya que los discos siguen siendo más lentos. Y lo que es aún más importante, no se puede leer un programa que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno del PC normalmente se encuentran en una memoria ROM.
No obstante, el uso de la ROM para almacenar grandes cantidades de datos ha ido desapareciendo casi completamente en los ordenadores de propósito general, mientras que la memoria Flash ha ido ocupando este puesto.
Velocidad

Velocidad De Lectura:

Aunque la relación relativa entre las velocidades de las memorias RAM y ROM ha ido variando con el tiempo, desde el año 2007 la RAM es más rápida para la lectura que la mayoría de las ROM, razón por la cual el contenido ROM se suele traspasar normalmente a la memoria RAM, desde donde es leída cuando se utiliza.
Velocidad De Escritura:
Para los tipos de ROM que puedan ser modificados eléctricamente, la velocidad de escritura siempre es mucho más lenta que la velocidad de lectura, pudiendo requerir voltaje excepcionalmente alto, movimiento de jumpers para habilitar el modo de escritura, y comandos especiales de desbloqueo. Las memorias Flash NAND logran la más alta velocidad de escritura entre todos los tipos de memoria ROM reprogramable, escribiendo grandes bloques de celdas de memoria simultáneamente, y llegando a 15 MB/s.



Historia del disco duro


 

El primer disco duro lo inventó la compañía IBM a principios de 1956 por encargo de las Fuerzas Aéreas de Estados Unidos. Se le llamó RAMAC 305 (nombre que significa Método de acceso aleatorio de contabilidad y control) y estaba compuesto por un grupo de 50 discos de aluminio, cada uno de 61 cm de diámetro, que giraban a 3.600 revoluciones por minuto y que estaban recubiertos de una fina capa magnética. Podía almacenar hasta 5 millones de caracteres (5 megabytes). Este disco tenía una velocidad de transferencia de 8,8 Kbps ¡y pesaba ¡más de una tonelada! El 10 de febrero de 1954, el disco duro bautizado RAMAC 305 podía leer y escribir datos en sucesión, y se convirtió en el primero de lo que hoy llamamos Dispositivo de almacenamiento de acceso directo o DASD.
En 1962, IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una velocidad de transferencia y una densidad de área 10 veces mayor que el RAMAC 305. La distancia entre los cabezales y la superficie del disco había descendido desde 20,32 µm a 6,35 µm.
A partir del año 1962, muchos fabricantes comenzaron a vender discos duros como el 1301.
En 1965, IBM lanzó el modelo 2310, cuya notable característica era ser un elemento de almacenamiento desmontable (el primer disco flexible).
El 2314, lanzado en 1966, tenía cabezales de lectura de ferrita (óxido de hierro).
En 1973, IBM lanzó el Winchester 3340, un disco duro cuyo cabezal de lectura estaba separado de la superficie a través de una fina capa de aire de tan sólo 0,43 µm de espesor. Mejoró su capacidad en comparación con aquella del RAMAC, como también su tamaño y peso, lo cual hizo que este disco se convirtiera el nuevo estándar de los dispositivos de almacenamiento de acceso directo. Al disco duro de 30 MB de capacidad se le dio el apodo de 30-30, y así se convirtió en el "Winchester" (como el famoso rifle 30-30).
El primer disco duro de 5,25" (cinco-coma-veinticinco pulgadas), desarrollado por la compañía Seagate, se lanzó en 1980.

Historia del CD y DVD

Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos en el mercado de audio por primera vez en 1980 de la mano de Philips y Sony como alternativa a los discos de vinilo y de lo cassettes.
En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo en el que escuchamos música y almacenamos datos.
Estos discos tienen una capacidad de 650 Megabytes de datos o 74 minutos de música de muy alta calidad. De un modo genérico podemos decir que el Compact Disc ha revolucionado el modo en que hoy dia se distribuye todo tipo de información electrónica.

En 1990 fueron de nuevo Philips y Sony los que ampliaron la tecnología y crearon el Compact Disc grabable (CD-R). Hasta entonces todos los CDs que se producían se hacían mediante el proceso industrial de estampación de una maqueta pregrabada.
El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado. Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos.
En la actualidad, cuando han pasado muchos años desde que Sony y Philips desarrollaron el formato digital del Compact Disc (CD) y ofrecieron al mundo la primera expresión del "entretenimiento digital", nos llega un nuevo y revolucionario producto : el Digital Video Disc (DVD). Tras el CD, vinieron el CD-ROM, Photo CD, CD-i, DCC, MiniDisc, ... pero ninguno creó las espectativas que ha creado el DVD. En esta evolución se han producido avances significativos en tecnologías que soportan estos formatos : láser ópticos, películas reflectivas, replicación de discos, ... y sobre todo, los algoritmos de compresión y codificación de video, audio y datos.

Indiscutiblemente los avances en los circuitos integrados (VLSI) y los mecanismos de control han hecho posible que las nuevas tecnologías se hicieran realidad. Fue en septiembre de 1995 cuando Sony, junto con otras nueve compañías (Philips, Mashusita, Toshiba, ...) unieron sus esfuerzos y crearon un estandar unificado para el formato DVD. Respaldado por las grandes compañías electrónicas y del mundo de la multimedia (estudios cinematográficos entre otros), comenzó su andadura ...



Historia y evolución de los dispositivos de almacenamiento


1.       Introducción
2.      El inicio
3.      Discos duros
4.      Desarrollo acelerado
5.       Tecnologías futuras
6.      Conclusiones
7.       Sugerencias
9.       

Introducción

El trabajo realizado tiene como finalidad expresar y hacer ver como a lo largo de los tiempos los dispositivos de almacenamiento computarizados han logrado evolucionar y tener actualmente capacidades que no eran pensables hace 20 años atrás.
Prueba de la rapidez del avance informático, es tangible con cosas tan fáciles de encontrar como un artículo de revista de computación, paginas deinternet de años anteriores que no se hayan actualizado, libros antiguos de computación, entre otras.
La tecnología avanza a pasos inmensos frente a nuestros ojos, día a día y los requerimientos de las grandes empresas, son cada vez mayores, inclusive la exigencia de los consumidores por ejemplo los videos juegos cada vez necesitan más almacenamiento, lo que también ocasiona que los procesadorestiene que ser más rápidos y las capacidades deben ser proporcionalmente grandes.
Al término de este trabajo resaltara la historia de los dispositivos de almacenamiento en las computadoras personales, la forma en las que funcionaron y funcionan y la importancia que tiene la evolución de los mismos.

El inicio

Los inicios de las unidades de almacenamiento de datos, comenzaron con las tarjetas perforadas, unidades por cierto pocas cómodas, ya que había que recordar el orden de las mismas, (ya que si este se perdía no había forma de recuperar el programa) estas tarjetas se insertaban en una máquina de procesamiento de manera secuencial, donde quedaba alojado en la memoria y listo para ser probado. La forma de lectura era semejante al sistema de lectura braile, la computadora leía por agujeros en las tarjetas. Vale destacar que en ocasiones u dependiendo de la complejidad del programa podía ocupar cerca de 200 tarjetas que había que colocar una por una dentro de la máquina, y al apagar la máquina todos esos datos se perdían.


CINTA MAGNÉTICA:

Años más tarde debido a la necesidad de llevar un orden en estas tarjetas y de no tener que perder tanto tiempo introduciendo una por una, se crea la cinta de tarjeta perforada, mejor conocida como cinta perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este sistema. No paso mucho tiempo cuando se descubre las nuevas tecnologías de las cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para computadoras ya que las misas consistían básicamente en espacios de cinta cubierta de oxido ferroso, donde se colocaba positivo y negativo, dependiendo del caso, el principio era tener una serie de imanes entrelazados en una cinta a los cuales les pedía cambiar la polaridad y esto hacia que se trabajara bajo el mismo principio de las perforados pero sin necesidad de tener orificios , solo trabajándola por ondas magnéticas, esto se lograba con el componente ferroso que se colocaba sobre la cinta; para asegurarse esos datos se crearon distintas formas que a la larga comenzaron a ser obsoletas, ya que el tamaño que tenían antes cintas era demasiado grande.
FIg.1.1 Cinta Magnética
·         DISCOS MAGNÉTICOS RÍGIDOS.
Estos discos fueron los inicios de los disco duros, la idea era construir unas unidades en las que los datos permanecieran permanentemente en la computadora sin perderse cuando la misma se apagara, además de poder movilizar los datos de manera mas rápida, por otro lado también quería eliminarse los costos de los grandes carretes y de cinta que ocasionaba tener los dispositivos magnéticos. Efectivamente se logra crear estas unidades pero las cintas no estaban del todo eliminadas, así que se ven en la necesidad nuevamente de innovar, creando así los discos magnéticos removibles, conocidos como Diskettes, inicialmente se crearon de tamaño 5 ¼" que en su momento fue maravilloso poder contar con un avance tan pequeño, donde pudiese almacenarse tanta información como lo eran cerca de 500Kb inicialmente.
Pero, la tecnología existente en cuanto al resto de la computadora se quedó muy pequeña al lado de la creación de estos grandes dispositivos de almacenamiento y se comienza a desarrollar todos los demás dispositivos que conforman al computador, como lo son:
·         a. CPU
·         b. Tarjeta Madre
·         c. Memoria RAM (mayor capacidad), entre otras.
A raíz de esto todas las empresas diseñadoras de estos equipos comienzan a utilizar la técnica de Miniaturización, cuya creación se les atribuye a los asiáticos; Para poder hacer computadoras personales, ya que hasta el momento solo se les daba uso en grandes empresas.
·         COMPUTADORES PERSONALES
Cuando comienzan a venderse los computadoras personales los interesados en el área comenzaron a estudiar el como manejar estos equipos, programar, crear nuevas aplicaciones, entre otras. Y un grupo de estas personas se interesó en desarrollar simulaciones, juegos, y ambientes visuales para el computador, como consecuencia de esto, tanto los procesadores como dispositivos de almacenamiento empezaron a quedarse cortos para todos los recursos que consumían estos juegos y nuevas aplicaciones visuales. De igual manera empezó a ser de urgencia poder transportar todo este softwarede un computador a otro, ya que se presentaba el mismo problema de las tarjetas perforadas, hacía falta cerca de 5 diskettes para poder grabar un software bien hecho. Así que desarrollan los discos de 3 ½" y las nuevas computadoras salen al mercado con estas nuevas unidades, capaces de almacenar hasta 1.44 Mb sosteniendo el mismo principio de los discos de 5 ¼ " pero con una densidad de "pequeños imanes" mayor en un espacio menor.
Un detalle importante y curioso que tuvo el desarrollo de los discos duros fue que en sus inicios algunas tarjetas madres no traían conexiones posibles directas para los disco duros, así que había que comprar una tarjeta SCSI con conexiones para las unidades, ya que no era solo el disco duro el afectado, también las unidades disqueteras se veían desconectadas de la tarjeta madre. Esto se hizo ya que abarataba el costo de la tarjeta madre y para algunas empresas podría ser funcional comprar 10 equipos de este tipo y 2 tarjetas SCSI que se fueran rotando conforme las personas terminaran algún trabajo.


Discos duros

 

Pese a que la evolución de los discos duros está inmersa con la creación de los dispositivos magnéticos de almacenamiento, es preferible considerarlo en un punto aparte ya que su estructura compleja amerita utilizar un espacio reservado para él.
Siempre han tenido el mismo principio de desarrollo, que consiste en que los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).
Monografias.com
Fig. 2.1. Disco Duro






HISTORIA DEL DISCO DURO


Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el Ramac I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetor resistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 3 terabytes (TB), (3000000 Megabytes)
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad y superioridad.
Monografias.com
Fig. 2.2 Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en 197




CARACTERÍSTICAS DE UN DISCO DURO

Las características que se deben tener en cuenta en un disco duro son:
·         Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
·         Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
·         Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
·         Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
·         Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
·         Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Monografias.com
Fig. 2.3. Características del Disco Duro
·         LOS CILINDROS
Se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera.
En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda en el sector a grabar y se hace pasar a través de ella un pulso de corriente, lo cual crea un campo magnéticoen la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda.
Para leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe un impulso de corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente.
Monografias.com
Fig. 2.4. Cilindros
·         EVOLUCIÓN DEL DISCO DURO.
Ahora bien, ya que sabemos como está formado, debemos saber que su evolución ha sido muy interesante porque los discos duros han comenzado con capacidades cercanas a 5 MB y su velocidad era muy corta, luego evolucionaron por primera vez a 20 MB y así progresivamente y manteniendo el mismo principio, los discos duros han logrado montarse hoy en día gracias a HITACHI en los 400 GB para computadoras personales, pese a que tiene esta enorme capacidad, el disco solo puede procesar a 7200 RPM ya que de otra manera las tarjetas madres y procesadores existentes hasta ahora no serían capaz de procesar mayores velocidades
·         UNIDADES DEL DISCO DURO
Resulta interesante estudiar los sistemas de archivos, el espacio en el disco duro está dividido en pequeñas unidades llamadas sectores, cada uno de 512 bytes. Así, por ejemplo, si el disco duro tiene 100 KB en total, esto significa que está dividido en 200 sectores. Pero el sistema de archivos no trata directamente con cada uno de los sectores. En vez de eso, agrupa los sectores para formar un clúster, trabajando directamente con ellos.
·         Los clúster
Son también llamados "unidades de asignación". Por ejemplo, en el mismo disco citado, si tuviéramos clúster formados con cuatro sectores, tendríamos un total de 50.
Así, cuando el sistema de archivos necesita acceder a un sector en particular, primero debe encontrar el clúster al que pertenece, y dentro de él buscar al mismo. Todos los tres sistemas de archivos más populares (FAT16, FAT32 y NTFS) trabajan de esta manera.
·         a. Fat16
Usa 16 bits para contar los clústeres. Es decir lo máximo que puede contar es hasta 2^16 - 1, es decir, hasta 65535. Es decir, lo máximo que puede caber son 65535 clústeres. Por eso, a medida que aumenta el tamaño de tu disco duro, aumentará también el tamaño de los clústeres, ya que el número máximo es el citado. También cada sector dentro de un grupo (clúster) debe ser numerado. Cada sector tiene un número de índice que está en un bite (es decir, 8 bits). Pero se utilizan solamente siete de estos bits, por lo tanto, el número máximo de sectores en cada clúster es de 128.
·         b. Fat32
Consiste bajo el mismo principio de la FAT16, que a su vez tiene el principio de las FAT que no es otro que una gran base de datos que contiene los registros de en dónde se encuentran cada uno de los archivos en el disco. Es como una tabla con muchas columnas cada una de las cuales guarda algo acerca de los archivos en el disco.
Cada registro en la FAT tiene un tamaño de 32 bytes. En otras palabras, si tengo 100 archivos en la computadora, 100 x 32bytes, es decir 3200 bytes del disco guardarán información de estos archivos en la FAT. Entonces es el mismo principio sólo que aplicado a 32 bits. Se puede notar que FAT32 es superior a FAT16. Pero la FAT32 no es soportada por todos los sistemas operativos. Solo fue soportada desde la versión 2 del Windows 95. Y todas las versiones anteriores de Windows NT (inclusive la versión 4.0) no pueden leer este sistema.
·         c. NTFS
Trabaja casi igual al FAT32 solo que tiene mas directivas de seguridad tanto para usuarios como para los sistemas basados en win9x, ejemplo de ello es que el sistema NTFS hace tres pasadas antes de re arrancar. Primero, hace un análisis que determina exactamente cuáles clústeres deben ser actualizados por la información que hay en el archivo de eventos.
Luego pasa a la fase en la cual efectúa todas las transacciones hasta el último chequeo, y por último efectúa la fase de deshacer, en la cual completa todas las transacciones que así lo requieran. Esto hace que los datos corruptos se reduzcan a un mínimo.





UNIDAD ZIP

El mercado no varió durante años para los dispositivos de almacenamiento, es decir, no salieron nuevos productos ya que se podía trabajar muy bien con los creados hasta el momento, lo que si se hizo en todos los componentes de un computador personal, fue aplicarles mejores técnicas de desarrollo para que fueran mas rápidos y de mayor capacidad, casualmente en esos años aparece una nueva unidad de almacenamiento conocida en su momento como unidad ZIP, estas unidades no estaban disponibles para todas las computadoras ya que no era compatible con casi ninguna arquitectura creada hasta el momento, pero la parte importante de estas unidades es que su capacidad era bastante alta, inicialmente fueron de 50 Mb y fueron aumentando con el tiempo; Sin embargo, no tuvo mucho éxito pese a su gran capacidad para la época, las razones de esto fueron:
·         No eran 100% compatibles con las computadoras clon, que eran las mas vendidas (Y siguen siendo).
·         Los costos de las unidades eran muy altos, tanto el dispositivo de lectura/escritura, como el de almacenamiento.
·         Siempre se planteó como unidad adicional al equipo, situación que no ayudó a su fácil comercialización.
Su principio también era el de los diskettes y/o cintas magnéticas, solo eran un poco mas grandes que las unidades de 3 ½" sin llegar a los de 5 ¼"



DISCOS COMPACTOS

Pasado un tiempo cuando ocurre la aparición del modelo 80586 de Intel cuando se logran ver los primeros resultados de un estudio de años, y eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar hasta 650 Megabytes, lo que era un gran avance ya que todavía estaban disco duros con menor capacidad vigentes en el mercado, así como también habían de mayor capacidad de los mismos.
Esta tecnología trabajó por lectura/escritura óptica, es decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la medida de rapidez de esta unidad es mediante la letra "X" lo que significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de 4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un modelo experimental de 100X que no era mas que una farsa, ya que la unidad no alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo para el CPU, debido a esta situación, hubo que quedarse con las unidades de máximo 52X para lectura (Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que grababan en los cd´s, conocidas como "Quemadoras", salen casi a la par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó por un tiempo la piratería que no fue del todo prevista.
El funcionamiento de las unidades de cd no era muy complejo, la lectura de información ocurre cuando se hace pasar un fino haz de láser por la superficie del disco. Que a su vez refleja este haz, y de acuerdo con lo que tiene grabado, un detector lo lee. Diferentemente que los discos duros, los CD están grabados en una pista tipo espiral, que comienza en la parte interior, y termina en la orilla.
Los cd´s mantienen su calidad y su vigencia hasta nuestros días, lo único que ha variado en ellos es la capacidad que ahora llega hasta 900 Mb. Y existen discos compactos rescribidles que tampoco fueron soltados al mercado inicialmente.
Monografias.com
Fig. 3.1. Disco Compacto
DVD

Una vez mas los desarrolladores de tecnología no descansan, y comienzan a ver que ahora que los discos duros tienen 80 GB. Se presenta de nuevo el problema de hacer soporte de datos, ya que para hacer un soporte de un disco de 70 Gigas, hacen falta 100 cd´s lo cual es demasiado, también se presenta el problema de las películas, ya que el formato de VHS se comienza a considerar obsoleto y malo, entonces se decide sacar un nuevo formato de disco, con una tecnología óptica ya que resulta mucho mas económica y confiable que las anteriores. Este nuevo desarrollo es conocido con el nombre de DVD, prácticamente popular debido a que los formatos de películas los comenzaron a hacer para este tipo de dispositivo, ya que al ser de mayor capacidad (Especificaciones que se dirán mas adelante) puede tener una mejor calidad de imagen y sonido la grabación en ellos.
La unidad DVD es similar en su tamaño físico al CD, pero su capacidad de almacenamiento es mucho mayor (Un DVD permite el almacenamiento de entre 4.7 GB y 17 GB de datos). Se utiliza para almacenar películas en formato de video digital comprimido, con subtítulos en varios idiomas, y con algunas posibilidades de interactividad. El material viene por zonas, siendo incompatibles entre sí los reproductores y materiales de zonas diferentes. El mecanismo de esta protección fue descubierto y puesto a disposición en Internet, por lo que no consiguió los resultados que quería. La especificación DVD soporta discos de gran capacidad con velocidades de transferencia desde 600KB/s (Que equivale a quemar un CD a 4x). Además las unidades DVD permiten leer los CD-ROM estándar, CD-I y vídeo CD. Es muy probable que no se haya sustituido del todo el uso de los Cd´s para computadoras porque los precios de Grabadoras de DVD son realmente altos, aunque por las tendencias que ha tenido el comercio de la tecnología, seguramente bajará pronto su precio.
De este tipo de unidades es importante e imperativo estudiarlas a fondo ya que son las que están rigiendo el sistema actualmente, por esta razón debemos saber que existen diferentes formatos dentro de lo que se denomina DVD. Son los siguientes:
·         DVD Video: sólo almacena películas en formato digital.
·         DVD-ROM: disco DVD de datos y de solo de lectura.
·         DVD-Audio: similar al CD de audio, pero de mucha más capacidad.
·         DVD-R: disco grabable una sola vez (como los CD-R), a partir de entonces se comporta como un DVD-ROM.
·         DVD-RAM: regrabable múltiples veces (como los CD-RW). Requiere un grabador de DVD que soporte este formato.
·         DVD-RW: igual que el DVD-RAM, pero con un formato diferente (no compatible con el anterior).
Lo que hace maravilloso a los DVD entre otras cosas es la capacidad de compresión del espacio que se tiene, por ejemplo El tamaño de las marcas en un DVD de una cara es de 0"44 micras mientras que las de un CD son 0"83 micras. Por otra parte tenemos las caras y capas de los DVD, que hacen que se forme otra división de clasificación de los mismos, es decir, tenemos de acuerdo a las capas y caras una clasificación que es la siguiente:
·         DVD-5: una sola cara y una sola capa. Capacidad de 4"7GB.
·         DVD-9: una sola cara con doble capa. Capacidad de 8"5GB.
·         DVD-10: doble cara, pero una sola capa. Capacidad de 9"4GB.
·         DVD-18: doble cara y doble capa. Capacidad de 17GB.
Monografias.com
Fig. 3.2. DVD
MEDICION DE LOS CD Y DVD

Ahora bien, otro dato interesante que nos arroja el estudio de los DVD es que su capacidad de lectura es muchísimo superior a la de los CD´s comunes, ejemplo de ello se puede ver midiendo 1X de un CD y 1X de un DVD, mientras que la X del cd vale 150KB/s, la X del DVD vale 1250 KB/S, debido a esta razón es que las unidades de DVD solo se han desarrollado hasta 8X que equivale a 10 megas de transferencia.

Tecnologías futuras

 

        ALMACENAMIENTO HOLOGRÁFICO

Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo. De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006. Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años.
Monografias.com
Fig. 4.1. Almacenamiento Holográfico
LASER AZUL

Las razones son claras, y es que los diseñadores de la misma, (referencias en la página Web de la empresa Osta) pensaron bajo el siguiente paradigma, "si todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a dicha lente especial (lente de objetivo) debe ser convertida a un punto de aproximadamente 1micra de diámetro para leer correctamente las marcas del disco.
Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La convergencia es medida por la Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre, tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Monografias.com
Fig. 4.2. Laser Azul

GAMA DE COLORES

Si esta longitud de onda es muy grande, sólo se podrán leer marcas grandes, ya que si son más pequeñas, el haz de luz abarcaría varias de ellas simultáneamente. La marca más pequeña que se puede obtener con tecnología óptica es determinada por el límite de difracción que no es más que el espectro de luz visible. Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades. Los productos MO actuales (14x) usan una menor longitud de onda, de 660 NM, comparados con la primera generación (1x) que era de 830 NM, lo que permite incrementar la densidad de almacenamiento. Esto sucede igualmente con el DVD, que tiene una longitud de onda de 650 NM por los 780 NM del CD. Como se puede ver, la historia tanto de los dispositivos magnéticos como los ópticos se repite, una vez creado el principio, solo se busca optimizar el espacio y la densidad en ellos.


Conclusiones:

·         A lo largo de la historia, incluso desde tiempos en los que no existía la electricidadel hombre siempre ha querido simplificar su modo de vida, por esta razón los grandes pensadores de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías matemáticas para construir máquinas que simplifiquen las tareas de la vida diaria.
·         El verdadero auge de estas ideas comienza en la época de la revolución industrial con la aparición de la máquina de tejer, y muchas otras maquinarias. Luego se comienza a necesitar realizar cálculos muy grandes, que eran difíciles de realizar por el hombre, ya que tomaba años terminar un cálculo. Entonces comienzan a crear las computadoras, con ellas se realizaban las tareas matemáticas de manera más rápida y segura.
·         Sin embargo no era suficiente, por naturaleza se tiende a buscar mas rapidez, y es cuando comienza la técnica de "miniaturización" que cada día se perfecciona mas; con este método se logra hacer procesadores mas rápidos por circuitos mas pequeños, de igual manera se logra tener capacidades de almacenamiento abismales en espacios físicos muy pequeños, la ciencia de la computación se encuentra en su mejor momento.

Sugerencias

Uno de los temas que más debe preocuparnos en nuestro ordenador es el mantenimiento del disco duro, ya que es en él en el que tenemos instalado nuestro sistema operativo, nuestros programas y donde guardamos nuestros datos.

La oxidación, la galvanización y las reacciones químicas entre sus componentes, además del calor y el maltrato, pueden destruir los "datos digitales". Por lo tanto, hay que revisar periódicamente la información para detectar las fallas. Para evitar el deterioro temprano de los compactos sólo hay que tratarlos bien: evitando exponerlos al calor y la humedad, sujetarlos por los bordes o el centro, no doblarlos y guardarlos siempre en sus cajas. Debe evitarse que las placas entren en contacto constante con cualquier material. Los CD-R, basados en tinturas orgánicas, son más perecederos y volátiles que los compactos y los CD-ROM. Hay que verificar el backup cada dos años o menos. No es mala idea, el hacer doble copia de todo y respaldar la información cada dos años

Comentarios