HISTORIA Y EVOLUCIÓN
Historia de la tarjeta madre
La historia de la tarjeta madre, como se conoce
actualmente inicia en 1947 cuando William Shockley, Walter Brattain y John
Bardeen, científicos de los laboratorios Bell, muestran su invento, el
transistor amplificador de punto-contacto, iniciando con esto el desarrollo de
la miniaturización de circuitos electrónicos; este es el invento que
eventualmente dividiría la historia de las computadoras de la primera y segunda
generación.
Otro invento que contribuyó de manera decisiva a la reación de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real Británico, que en 1952 presentó una proposición sobre la utilización de un bloque de material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de conexión.
Fue hasta 1961 cuando Fairchild Semiconductor anuncia el primer circuito integrado comercialmente disponible, iniciando con esto la competencia por la alta integración de componentes en espacios cada vez más reducidos; la miniaturización, y con esto la búsqueda de la computadora en una pastilla.
Con estos inventos se comienza a trabajar en la computadora en una tarjeta.
Otro invento que contribuyó de manera decisiva a la reación de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real Británico, que en 1952 presentó una proposición sobre la utilización de un bloque de material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de conexión.
Fue hasta 1961 cuando Fairchild Semiconductor anuncia el primer circuito integrado comercialmente disponible, iniciando con esto la competencia por la alta integración de componentes en espacios cada vez más reducidos; la miniaturización, y con esto la búsqueda de la computadora en una pastilla.
Con estos inventos se comienza a trabajar en la computadora en una tarjeta.
Quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen
hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
La Pascalina
El inventor y pintor Leonardo Da Vencí (1452 - 1519) trazó las ideas
para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623 -1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamó Pascalina y funcionaba como maquinaria a base de engranes
y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo
financiero, pues para esos momentos, resultaba más costosa que la labor humana
para los cálculos aritméticos.
La locura de Babbage
Charles Babbage (1793 - 1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva
hubieran nacido 100 años después. Adelantó la situación del hardware computacional al
inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la
máquina de diferencias, Babbage concibió la idea de una "máquina
analítica". En esencia ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina de Babbage podía sumar, substraer, multiplicar y dividir en
secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles
de engranes y mecánicos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron
el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en
su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características
incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica, hubiera adelantado el nacimiento de la computadora electrónica por varias décadas. Irónicamente, su
obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la
computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia.
La primera tarjeta perforada
El telar de tejido, inventado en 1801 por el Francés Joseph Marie
Jackard (1753 - 1834), usado todavía en la actualidad, se controla por medio de
tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las
tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para
indicar un diseño de tejido particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las
tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el
motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas
consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860 - 1929). La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888.
La dirección de oficina ya había llegado a la conclusión de que
el censo de cada diez años tardaría más que los mismos 10 años para terminarlo.
La oficina de censos comisionó la estadística Herman Hollerit para que aplicara su experiencia
en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento
de las tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la
oficina se ahorró alrededor de U$$ 5.000.000 de dólares. Así empezó el
procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de
Jackard, sino de la "fotografía de perforación". Durante décadas, desde
mediados de los cincuenta la tecnología de las tarjetas perforadas se
perfeccionó con la implantación de más dispositivos con capacidades más
complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.), el procesamiento de la tarjeta perforada
se conoció también como procesamiento de registro unitario.
En 1946, se terminó de construir una computadora electrónica
Completamente operacional a gran escala, y se llamó ENIAC (Electronic Numerical Integrator And Computer –
integrador numérico y calculador electrónico). La ENIAC construida para
aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que
trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras
electromecánicas, irrumpió como un importante descubrimiento en la tecnología
de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450
metros cuadrados, llenaba un cuarto de 6m x 12m y contenía 18,000 bulbos, tenía
que programarse manualmente conectándola a 3 tableros que tenían más de 6,000
interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las
computadoras actuales que operan con el sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9). La ENIAC
requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia
siempre que se activaba.
Generaciones de computadoras
Primera Generación (1951-1958)
Las computadoras de la primera generación emplearon bulbos para procesar
información. Se ingresaban datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento se lograba con un tambor que giraba rápidamente,
sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran más grandes y generaban
más calor que los modelos contemporáneos. La IBM tenía el monopolio de los equipos de procesamiento de datos basándose
en tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, relojes, etc.
Segunda Generación (1959-1964)
Con el invento del transistor se hizo posible una nueva generación de computadoras,
más rápidas, más pequeñas y con menores necesidades de ventilación. Pero su costo seguía siendo una porción significativa. Las computadoras de la Segunda
Generación también utilizaban redes de núcleos
magnéticos en lugar de tambores giratorios para el almacenamiento primario.
Tercera Generación (1964-1971)
Las computadoras de la Tercera Generación emergieron con el desarrollo
de los circuitos integrados, que posibilitó la fabricación de
varios transistores en un único sustrato de silicio. Los circuitos
integrados permitieron a los fabricantes de computadoras incrementar la
flexibilidad de los programas, y estandarizar sus modelos. Las computadoras
nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y
eran energéticamente más eficientes.
Cuarta Generación (1971 a la fecha)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la
cuarta generación: el reemplazo de las memorias con núcleo magnético, por la de Chips de silicio y la colocación de
muchos más componentes en un Chip (producto de la micro miniaturización* de los circuitos electrónicos). Hoy en día
las tecnologías LSI (Integración a gran escala) y VLSI (Integración a muy gran
escala) permiten que cientos de miles de componentes electrónicos se almacenen
en un chip. Además los investigadores intentan utilizar la superconductividad
(fenómeno de disminución de la resistencia eléctrica)
Memoria De Solo Lectura:
La memoria de solo lectura, conocida también como ROM (acrónimo en
inglés de read-only memory), es un medio de almacenamiento utilizado en
ordenadores y dispositivos electrónicos, que permite solo la lectura de la
información y no su escritura, independientemente de la presencia o no de una
fuente de energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de
manera rápida o fácil. Se utiliza principalmente para contener el firmware
(programa que está estrechamente ligado a hardware específico, y es poco
probable que requiera actualizaciones frecuentes) u otro contenido vital para
el funcionamiento del dispositivo, como los programas que ponen en marcha el
ordenador y realizan los diagnósticos.
En su sentido más estricto, se refiere solo a máscara ROM -en inglés,
MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos
almacenados de forma permanente, y por lo tanto, su contenido no puede ser
modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y
Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces,
aún siendo descritos como "memoria de solo lectura" (ROM). La razón
de que se las continúe llamando así es que el proceso de reprogramación en
general es poco frecuente, relativamente lento y, a menudo, no se permite la
escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la
ROM, los dispositivos reprogramables son más flexibles y económicos, por lo
cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a
partir de 2007.
Historia
El tipo más simple de ROM en estado sólido es de la misma antigüedad que
la propia tecnología semiconductora. Las puertas lógicas combinacionales pueden
usarse en conjunto para indexar una dirección de memoria de n bits en valores
de m bits de tamaño (una tabla de consultas). Con la invención de los circuitos
integrados se desarrolló la máscara ROM. La máscara ROM consistía en una
cuadrícula de líneas formadas por una palabra y líneas formadas por un bit
seleccionadas respectivamente a partir de cambios en el transistor. De esta
manera podían representar una tabla de consultas arbitraria y un lapso de
propagación deductible.
En las máscaras ROM los datos están físicamente codificados en el mismo
circuito, así que solo se pueden programar durante la fabricación. Esto acarrea
serias desventajas:
1. Solo es económico
comprarlas en grandes cantidades, ya que el usuario contrata fundiciones para
producirlas según sus necesidades.
2. El tiempo transcurrido entre
completar el diseño de la máscara y recibir el resultado final es muy largo.
3. No son prácticas para I+D
(Investigación y Desarrollo) por el hecho de que los desarrolladores
necesitan cambiar el contenido de la memoria mientras refinan un diseño.
4. Si un producto tiene un
error en la máscara, la única manera de arreglarlo es reemplazando físicamente
la ROM por otra.
Los desarrollos posteriores tomaron en cuenta estas deficiencias, así
pues se creó la memoria de solo lectura programable (PROM). Inventada en 1956,
permitía a los usuarios modificarla solo una vez, alterando físicamente su
estructura con la aplicación de pulsos de alto voltaje. Esto eliminó los
problemas 1 y 2 antes mencionados, ya que una compañía podía pedir un gran lote
de PROMs vacías y programarlas con el contenido necesario elegido por los
diseñadores. En 1971 se desarrolló la memoria de solo lectura programable y
borrable (EPROM) que permitía reiniciar su contenido exponiendo el dispositivo
a fuertes rayos ultravioleta. De esta manera erradicaba el punto 3 de la
anterior lista. Más tarde, en 1983, se inventó la EEPROM, resolviendo el
conflicto número 4 de la lista ya que se podía reprogramar el contenido
mientras proveyese un mecanismo para recibir contenido externo (por ejemplo, a través
de un cable serial). En medio de la década de 1980 Toshiba inventó la memoria
flash, una forma de EEPROM que permitía eliminar y reprogramar contenido en una
misma operación mediante pulsos eléctricos miles de veces sin sufrir ningún
daño.
Todas estas tecnologías mejoraron la versatilidad y flexibilidad de la
ROM, pero lo hicieron a expensas de un alto incremento del costo por chip. Por
eso las máscaras ROM se mantuvieron como la solución económica durante bastante
tiempo. Esto fue así aproximadamente hasta el año 2000, cuando el precio de las
memorias reprogramables hubo descendido lo suficiente como para comenzar a
desplazar a las ROM no reprogramables del mercado.
El producto más reciente es la memoria NAND, otra vez desarrollada por
Toshiba. Los diseñadores rompieron explícitamente con las prácticas del pasado,
afirmando que enfocaba "ser un reemplazo de los discos duros", más
que tener el tradicional uso de la ROM como una forma de almacenamiento
primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo
un rendimiento comparable al de los discos duros, una mejor tolerancia a los
shocks físicos, una miniaturización extrema (como por ejemplo memorias USB y
tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.
Uso Para Almacenamiento De Software:
Los ordenadores domésticos a comienzos de los años 1980 venían con todo
su sistema operativo en ROM. No había otra alternativa razonable ya que las
unidades de disco eran generalmente opcionales. La actualización a una nueva
versión significa usar un soldador o un grupo de interruptores DIP y reemplazar
el viejo chip de ROM por uno nuevo. Actualmente los sistemas operativos en
general ya no van en ROM. Todavía los ordenadores pueden dejar algunos de sus
programas en memoria ROM, pero incluso en este caso, es más frecuente que vaya
en memoria flash. Los teléfonos móviles y los asistentes personales digitales
(PDA) suelen tener programas en memoria ROM (o por lo menos en memoria flash).
Algunas de las videoconsolas que usan programas basados en la memoria
ROM son la Nintendo, Súper Nintendo, Nintendo 64, Game Boy, Game Boy Advance, ,
Nintendo DS, Nintendo 3DS, etc. Estas memorias ROM, pegadas a cajas de plástico
aptas para ser utilizadas e introducidas repetidas veces, son conocidas como
cartuchos. Por extensión la palabra ROM puede referirse también a un archivo de
datos que contenga una imagen del programa que se distribuye normalmente en
memoria ROM, como una copia de un cartucho de videojuego.
En la actualidad se usa mucho el termino ROM principalmente en lo que se
trata del sistema operativo ANDROID presente en gran variedad de teléfonos
inteligentes (smart pone). En Android una ROM es
un archivo que contiene todo el sistema operativo listo para
instalar, o más bien ser transferido a la memoria flash del teléfono.
La cuestión es porqué se le llaman ROM a estos archivos, pues bien hace
mucho tiempo, los primeros ordenadores domésticos, llevaban grabado el sistema
operativo en memoria ROM, lo que quiere decir que si querías actualizar el SO
tenias que desoldar la versión anterior para posteriormente soldar la nueva
versión. Más tarde se crearon las memorias ROM actualizables, las cuales
eran flasheables mediante maquinas especiales, en este caso quitabas el chip,
lo enchufabas en la máquina y cargabas el contenido nuevo, para después volver
a conectar el chip. Por último con el avance del tiempo, el coste de la
fabricación de memorias flash se abarato y ya no merece la pena tener
memorias de solo lectura, pero los dispositivos de almacenamiento en los que
nos se suele escribir y solo son de lectura se siguen definiendo como memorias
ROM, como es el caso de las BIOS de los PC o de la memoria ROM de los
teléfonos, que aunque se llamen así se pueden escribir en ellas.
Entonces una ROM de ANDROID es una copia de todos los ficheros que son
necesarios para ejecutar el sistema operativo y las aplicaciones que vengan
integradas en este. Es donde reside tanto el kernel de linux que se ejecuta,
como todos los iconos e imágenes de las aplicaciones.
Uso Para Almacenamiento De Datos
Como la ROM no puede ser modificada (al menos en la antigua versión de
máscara), solo resulta apropiada para almacenar datos que no necesiten ser
modificados durante la vida de este dispositivo. Con este fin, la ROM se ha
utilizado en muchos ordenadores para guardar tablas de consulta, utilizadas
para la evaluación de funciones matemáticas y lógicas. Esto era especialmente
eficiente cuando la unidad central de procesamiento era lenta y la ROM era
barata en comparación con la RAM. De hecho, una razón de que todavía se utilice
la memoria ROM para almacenar datos es la velocidad, ya que los discos siguen
siendo más lentos. Y lo que es aún más importante, no se puede leer un programa
que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la
BIOS, o el sistema de arranque oportuno del PC normalmente se encuentran en una
memoria ROM.
No obstante, el uso de la ROM para almacenar grandes cantidades de datos
ha ido desapareciendo casi completamente en los ordenadores de propósito
general, mientras que la memoria Flash ha ido ocupando este puesto.
Velocidad
Velocidad De Lectura:
Aunque la relación relativa entre las velocidades de las memorias RAM y
ROM ha ido variando con el tiempo, desde el año 2007 la RAM es más rápida para
la lectura que la mayoría de las ROM, razón por la cual el contenido ROM se
suele traspasar normalmente a la memoria RAM, desde donde es leída cuando se
utiliza.
Velocidad De Escritura:
Para los tipos de ROM que puedan ser modificados eléctricamente, la
velocidad de escritura siempre es mucho más lenta que la velocidad de lectura,
pudiendo requerir voltaje excepcionalmente alto, movimiento de jumpers para
habilitar el modo de escritura, y comandos especiales de desbloqueo. Las memorias
Flash NAND logran la más alta velocidad de escritura entre todos los tipos de
memoria ROM reprogramable, escribiendo grandes bloques de celdas de memoria
simultáneamente, y llegando a 15 MB/s.
Historia
del disco duro
El
primer disco duro lo inventó la compañía
IBM a principios de 1956 por encargo de las Fuerzas Aéreas de Estados Unidos.
Se le llamó RAMAC 305 (nombre que significa Método de
acceso aleatorio de contabilidad y control) y estaba compuesto por un grupo
de 50 discos de aluminio, cada uno de 61 cm de diámetro, que giraban a 3.600
revoluciones por minuto y que estaban recubiertos de una fina capa magnética.
Podía almacenar hasta 5 millones de caracteres (5 megabytes). Este disco tenía
una velocidad de transferencia de 8,8 Kbps ¡y pesaba ¡más de una tonelada! El
10 de febrero de 1954, el disco duro bautizado RAMAC 305 podía leer y escribir
datos en sucesión, y se convirtió en el primero de lo que hoy llamamos Dispositivo
de almacenamiento de acceso directo o DASD.
En
1962, IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una
velocidad de transferencia y una densidad de área 10 veces mayor que el RAMAC
305. La distancia entre los cabezales y la superficie del disco había
descendido desde 20,32 µm a 6,35 µm.
A
partir del año 1962, muchos fabricantes comenzaron a vender discos duros como
el 1301.
En
1965, IBM lanzó el modelo 2310, cuya notable característica era ser un elemento
de almacenamiento desmontable (el primer disco flexible).
El
2314, lanzado en 1966, tenía cabezales de lectura de ferrita (óxido de hierro).
En
1973, IBM lanzó el Winchester 3340, un disco duro cuyo cabezal de lectura
estaba separado de la superficie a través de una fina capa de aire de tan sólo
0,43 µm de espesor. Mejoró su capacidad en comparación con aquella del RAMAC,
como también su tamaño y peso, lo cual hizo que este disco se convirtiera el
nuevo estándar de los dispositivos de almacenamiento de acceso directo. Al
disco duro de 30 MB de capacidad se le dio el apodo de 30-30, y así
se convirtió en el "Winchester" (como el famoso rifle 30-30).
El
primer disco duro de 5,25" (cinco-coma-veinticinco pulgadas), desarrollado
por la compañía Seagate, se lanzó en 1980.
Historia del CD y
DVD
Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos
en el mercado de audio por primera vez en 1980 de la mano de Philips y Sony
como alternativa a los discos de vinilo y de lo cassettes.
En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo en el que escuchamos música y almacenamos datos.
En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo en el que escuchamos música y almacenamos datos.
Estos discos tienen una capacidad de 650 Megabytes de datos o 74 minutos
de música de muy alta calidad. De un modo genérico podemos decir que el Compact
Disc ha revolucionado el modo en que hoy dia se distribuye todo tipo de
información electrónica.
En 1990 fueron de nuevo Philips y Sony los que ampliaron la tecnología y crearon el Compact Disc grabable (CD-R). Hasta entonces todos los CDs que se producían se hacían mediante el proceso industrial de estampación de una maqueta pregrabada.
El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado. Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos.
En la actualidad, cuando han pasado muchos años desde que Sony y Philips
desarrollaron el formato digital del Compact Disc (CD) y ofrecieron al mundo la
primera expresión del "entretenimiento digital", nos llega un nuevo y
revolucionario producto : el Digital Video Disc (DVD). Tras el CD, vinieron el
CD-ROM, Photo CD, CD-i, DCC, MiniDisc, ... pero ninguno creó las espectativas
que ha creado el DVD. En esta evolución se han producido avances significativos
en tecnologías que soportan estos formatos : láser ópticos, películas
reflectivas, replicación de discos, ... y sobre todo, los algoritmos de
compresión y codificación de video, audio y datos.
Indiscutiblemente los avances en los circuitos integrados (VLSI) y los
mecanismos de control han hecho posible que las nuevas tecnologías se hicieran
realidad. Fue en septiembre de 1995 cuando Sony, junto con otras nueve
compañías (Philips, Mashusita, Toshiba, ...) unieron sus esfuerzos y crearon un
estandar unificado para el formato DVD. Respaldado por las grandes compañías
electrónicas y del mundo de la multimedia (estudios cinematográficos entre
otros), comenzó su andadura ...
Historia y
evolución de los dispositivos de almacenamiento
9.
Introducción
El trabajo realizado
tiene como finalidad expresar y hacer ver como a lo largo de los tiempos los
dispositivos de almacenamiento computarizados
han logrado evolucionar y tener actualmente capacidades que no eran pensables
hace 20 años atrás.
Prueba de la rapidez del avance informático, es tangible con
cosas tan fáciles de encontrar como un artículo de revista de computación, paginas
deinternet de
años anteriores que no se hayan actualizado, libros antiguos
de computación, entre otras.
La tecnología avanza
a pasos inmensos frente a nuestros ojos, día a día y los requerimientos de las
grandes empresas, son cada
vez mayores, inclusive la exigencia de los consumidores por ejemplo los
videos juegos cada
vez necesitan más almacenamiento, lo que también ocasiona que los procesadorestiene que ser más rápidos y las
capacidades deben ser proporcionalmente grandes.
Al término de este trabajo resaltara la historia de
los dispositivos de
almacenamiento en las computadoras personales,
la forma en las que funcionaron y funcionan y la importancia que tiene la evolución de
los mismos.
El inicio
Los inicios de las unidades de almacenamiento de datos,
comenzaron con las tarjetas perforadas,
unidades por cierto pocas cómodas, ya que había que recordar el orden de las
mismas, (ya que si este se perdía no había forma de recuperar el programa) estas
tarjetas se insertaban en una máquina de procesamiento de manera secuencial,
donde quedaba alojado en la memoria y
listo para ser probado. La forma de lectura era
semejante al sistema de
lectura braile, la computadora leía
por agujeros en las tarjetas. Vale destacar que en ocasiones u dependiendo de
la complejidad del programa podía ocupar cerca de 200 tarjetas que había que
colocar una por una dentro de la máquina, y al apagar la máquina todos esos
datos se perdían.
CINTA MAGNÉTICA:
Años más tarde debido a la necesidad de llevar un orden en estas
tarjetas y de no tener que perder tanto tiempo introduciendo
una por una, se crea la cinta de tarjeta perforada, mejor conocida como cinta
perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este
sistema. No paso mucho tiempo cuando se descubre las nuevas tecnologías de las
cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para
computadoras ya que las misas consistían básicamente en espacios de cinta
cubierta de oxido ferroso, donde se colocaba positivo y negativo, dependiendo
del caso, el principio era tener una serie de imanes entrelazados en una cinta
a los cuales les pedía cambiar la polaridad y esto hacia que se trabajara bajo
el mismo principio de las perforados pero sin necesidad de tener orificios ,
solo trabajándola por ondas magnéticas,
esto se lograba con el componente ferroso que se colocaba sobre la cinta; para
asegurarse esos datos se crearon distintas formas que a la larga comenzaron a
ser obsoletas, ya que el tamaño que tenían antes cintas era demasiado grande.
FIg.1.1 Cinta Magnética
·
DISCOS MAGNÉTICOS RÍGIDOS.
Estos discos fueron los inicios de los disco duros, la idea era
construir unas unidades en las que los datos permanecieran permanentemente
en la computadora sin
perderse cuando la misma se apagara, además de poder movilizar
los datos de manera mas rápida, por otro lado también quería eliminarse
los costos de
los grandes carretes y de cinta que ocasionaba tener los dispositivos
magnéticos. Efectivamente se logra crear estas unidades pero las cintas no
estaban del todo eliminadas, así que se ven en la necesidad nuevamente de
innovar, creando así los discos magnéticos removibles, conocidos como
Diskettes, inicialmente se crearon de tamaño 5 ¼" que en su momento fue
maravilloso poder contar con un avance tan pequeño, donde pudiese almacenarse
tanta información como
lo eran cerca de 500Kb inicialmente.
Pero, la tecnología existente en cuanto al resto de la
computadora se quedó muy pequeña al lado de la creación de estos grandes
dispositivos de almacenamiento y se comienza a desarrollar todos los demás
dispositivos que conforman al computador, como lo
son:
·
a. CPU
·
b. Tarjeta Madre
A raíz de esto todas las empresas diseñadoras de estos equipos
comienzan a utilizar la técnica de Miniaturización, cuya creación se les
atribuye a los asiáticos; Para poder hacer computadoras personales, ya que
hasta el momento solo se les daba uso en grandes empresas.
·
COMPUTADORES PERSONALES
Cuando comienzan a venderse los computadoras personales los
interesados en el área comenzaron a estudiar el como manejar estos equipos,
programar, crear nuevas aplicaciones, entre otras. Y un grupo de
estas personas se interesó en desarrollar simulaciones, juegos, y ambientes
visuales para el computador, como consecuencia de esto, tanto los procesadores
como dispositivos de almacenamiento empezaron a quedarse cortos para todos
los recursos que
consumían estos juegos y nuevas aplicaciones visuales. De igual manera empezó a
ser de urgencia poder transportar todo este softwarede un computador a otro, ya que se presentaba el
mismo problema de las tarjetas perforadas, hacía falta cerca de 5 diskettes
para poder grabar un software bien hecho. Así que desarrollan los discos de 3
½" y las nuevas computadoras salen al mercado con
estas nuevas unidades, capaces de almacenar hasta 1.44 Mb sosteniendo el mismo
principio de los discos de 5 ¼ " pero con una densidad de
"pequeños imanes" mayor en un espacio menor.
Un detalle importante y curioso que tuvo el desarrollo de
los discos duros fue
que en sus inicios algunas tarjetas madres no traían conexiones posibles
directas para los disco duros, así que había que comprar una tarjeta SCSI con
conexiones para las unidades, ya que no era solo el disco duro el
afectado, también las unidades disqueteras se
veían desconectadas de la tarjeta madre. Esto se
hizo ya que abarataba el costo de
la tarjeta madre y para algunas empresas podría ser funcional comprar 10
equipos de este tipo y 2 tarjetas SCSI que se fueran rotando conforme las
personas terminaran algún trabajo.
Discos
duros
Pese a que la evolución de los discos duros está inmersa con la
creación de los dispositivos magnéticos de almacenamiento, es preferible
considerarlo en un punto aparte ya que su estructura compleja
amerita utilizar un espacio reservado para él.
Siempre han tenido el mismo principio de desarrollo, que
consiste en que los discos duros se presentan recubiertos de una capa magnética
delgada, habitualmente de óxido de hierro, y se
dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de
los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y
terminan en la parte interior (último).

Fig. 2.1. Disco Duro
HISTORIA
DEL DISCO DURO
Al principio los discos duros eran
extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a
excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en
1956, fue el Ramac I, presentado con la computadora IBM 350: pesaba una
tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este
disco duro trabajaba todavía con válvulas de
vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que
el tiempo requerido para el acceso era relativamente constante entre algunas
posiciones de memoria, a
diferencia de las cintas magnéticas, donde para encontrar una información dada,
era necesario enrollar y desenrollar los carretes hasta encontrar el dato
buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a
los discos duros era relativamente simple. Consistía en recubrir con material
magnético un disco de metal que era formateado en pistas concéntricas, que
luego eran divididas en sectores. El cabezal magnético codificaba información
al magnetizar diminutas secciones del disco duro, empleando un código binario
de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer
intactos años. Originalmente, cada bit tenía una disposición horizontal en la
superficie magnética del disco, pero luego se descubrió cómo registrar la
información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg
(ambos premio Nobel de Física por sus
contribuciones en el campo del almacenamiento magnético) fue el descubrimiento
del fenómeno conocido como magnetor resistencia gigante,
que permitió construir cabezales de lectura y grabación más sensibles, y
compactar más los bits en la superficie del disco duro. De estos
descubrimientos, realizados en forma independiente por estos investigadores, se
desprendió un crecimiento espectacular en la capacidad de almacenamiento en los
discos duros, que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250
Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000
Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros
de más de 3 terabytes (TB), (3000000 Megabytes)
En 2005 los primeros teléfonos móviles que incluían discos duros
fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya
que las memorias flash los
acabaron desplazando, sobre todo por asuntos de fragilidad y superioridad.

CARACTERÍSTICAS DE UN DISCO DURO
Las características que se deben tener en cuenta en un disco
duro son:
·
Tiempo medio de acceso: Tiempo
medio que tarda la aguja en situarse en la pista y el sector deseado; es la
suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la
Latencia media (situarse en el sector).
·
Tiempo medio de búsqueda: Tiempo
medio que tarda la aguja en situarse en la pista deseada; es la mitad del
tiempo empleado por la aguja en ir desde la pista más periférica hasta la más
central del disco.
·
Tiempo de lectura/escritura: Tiempo
medio que tarda el disco en leer o escribir nueva información: Depende de la
cantidad de información que se quiere leer o escribir, el tamaño de bloque, el
número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
·
Latencia media: Tiempo
medio que tarda la aguja en situarse en el sector deseado; es la mitad del
tiempo empleado en una rotación completa del disco.
·
Velocidad de rotación: Revoluciones
por minuto de los platos. A mayor velocidad de
rotación, menor latencia media.
·
Tasa de transferencia: Velocidad
a la que puede transferir la información a la computadora una vez la aguja está
situada en la pista y sector correctos. Puede ser velocidad sostenida o de
pico.

Fig. 2.3. Características
del Disco Duro
·
LOS CILINDROS
Se dividen en sectores, cuyo número esta determinado por el tipo
de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco.
Cilindros como sectores se identifican con una serie de números que se les
asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para
propósitos de identificación mas que para almacenamiento de datos. Estos,
escritos/leídos en el disco, deben ajustarse al tamaño fijado del
almacenamiento de los sectores. Habitualmente, los sistemas de
disco duro contienen más de una unidad en su interior, por lo que el número de
caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para
la primera.
En general su organización es
igual a los disquetes. La capacidad del disco resulta de multiplicar el número
de caras por el de pistas por cara y por el de sectores por pista, al total por
el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda en el sector a
grabar y se hace pasar a través de ella un pulso de corriente, lo cual crea
un campo magnéticoen la
superficie. Dependiendo del sentido de la corriente, así será la polaridad de
la celda.
Para leer, se mide la corriente inducida por el campo magnético
de la celda. Es decir que al pasar sobre una zona detectará un campo magnético
que según se encuentre magnetizada en un sentido u otro, indicará si en esa
posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es
el inverso, la cabeza recibe un impulso de corriente que provoca un campo
magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o
en 1 dependiendo del valor del
campo magnético provocado por dicha corriente.

Fig. 2.4. Cilindros
·
EVOLUCIÓN DEL DISCO DURO.
Ahora bien, ya que sabemos como está formado, debemos saber que
su evolución ha sido muy interesante porque los discos duros han comenzado con
capacidades cercanas a 5 MB y su velocidad era muy corta, luego evolucionaron
por primera vez a 20 MB y así progresivamente y manteniendo el mismo principio,
los discos duros han logrado montarse hoy en día gracias a HITACHI en los 400
GB para computadoras personales, pese a que tiene esta enorme capacidad, el
disco solo puede procesar a 7200 RPM ya que de otra manera las tarjetas madres
y procesadores existentes hasta ahora no serían capaz de procesar mayores
velocidades
·
UNIDADES DEL DISCO DURO
Resulta interesante estudiar los sistemas de archivos, el
espacio en el disco duro está dividido en pequeñas unidades llamadas sectores,
cada uno de 512 bytes. Así, por ejemplo, si el disco duro tiene 100 KB en
total, esto significa que está dividido en 200 sectores. Pero el sistema de
archivos no trata directamente con cada uno de los sectores. En vez de eso,
agrupa los sectores para formar un clúster, trabajando directamente con ellos.
·
Los clúster
Son también llamados "unidades de asignación". Por
ejemplo, en el mismo disco citado, si tuviéramos clúster formados con cuatro
sectores, tendríamos un total de 50.
Así, cuando el sistema de archivos necesita acceder a un sector
en particular, primero debe encontrar el clúster al que pertenece, y dentro de
él buscar al mismo. Todos los tres sistemas de archivos más populares (FAT16,
FAT32 y NTFS) trabajan de esta manera.
·
a. Fat16
Usa 16 bits para contar los clústeres. Es decir lo máximo que
puede contar es hasta 2^16 - 1, es decir, hasta 65535. Es decir, lo máximo que
puede caber son 65535 clústeres. Por eso, a medida que aumenta el tamaño de tu
disco duro, aumentará también el tamaño de los clústeres, ya que el número
máximo es el citado. También cada sector dentro de un grupo (clúster) debe ser
numerado. Cada sector tiene un número de índice que está en un bite (es decir,
8 bits). Pero se utilizan solamente siete de estos bits, por lo tanto, el
número máximo de sectores en cada clúster es de 128.
·
b. Fat32
Consiste bajo el mismo principio de la FAT16, que a su vez tiene
el principio de las FAT que no es otro que una gran base de datos que
contiene los registros de
en dónde se encuentran cada uno de los archivos en el disco. Es como una tabla
con muchas columnas cada una de las cuales guarda algo acerca de los archivos
en el disco.
Cada registro en
la FAT tiene un tamaño de 32 bytes. En otras palabras, si tengo 100 archivos en
la computadora, 100 x 32bytes, es decir 3200 bytes del disco guardarán
información de estos archivos en la FAT. Entonces es el mismo principio sólo
que aplicado a 32 bits. Se puede notar que FAT32 es superior a FAT16. Pero la
FAT32 no es soportada por todos los sistemas operativos. Solo fue
soportada desde la versión 2 del Windows 95.
Y todas las versiones anteriores de Windows NT (inclusive
la versión 4.0) no pueden leer este sistema.
·
c. NTFS
Trabaja casi igual al FAT32 solo que tiene mas directivas
de seguridad tanto
para usuarios como para los sistemas basados en win9x, ejemplo de ello es que
el sistema NTFS hace tres pasadas antes de re arrancar. Primero, hace un análisis que
determina exactamente cuáles clústeres deben ser actualizados por la
información que hay en el archivo de eventos.
Luego pasa a la fase en la cual efectúa todas las transacciones
hasta el último chequeo, y por último efectúa la fase de deshacer, en la cual
completa todas las transacciones que así lo requieran. Esto hace que los datos
corruptos se reduzcan a un mínimo.
UNIDAD ZIP
El mercado no varió durante años para los dispositivos de
almacenamiento, es decir, no salieron nuevos productos ya
que se podía trabajar muy bien con los creados hasta el momento, lo que si se
hizo en todos los componentes de un computador personal, fue
aplicarles mejores técnicas de
desarrollo para que fueran mas rápidos y de mayor capacidad, casualmente en
esos años aparece una nueva unidad de almacenamiento conocida en su momento
como unidad ZIP, estas unidades no estaban disponibles para todas las
computadoras ya que no era compatible con casi ninguna arquitectura creada
hasta el momento, pero la parte importante de estas unidades es que su
capacidad era bastante alta, inicialmente fueron de 50 Mb y fueron aumentando
con el tiempo; Sin embargo, no tuvo mucho éxito pese a su gran capacidad para
la época, las razones de esto fueron:
·
No eran 100% compatibles con las computadoras clon, que eran las
mas vendidas (Y siguen siendo).
·
Los costos de las unidades eran muy altos, tanto el dispositivo
de lectura/escritura, como el de almacenamiento.
·
Siempre se planteó como unidad adicional al equipo, situación
que no ayudó a su fácil comercialización.
Su principio también era el de los diskettes y/o cintas
magnéticas, solo eran un poco mas grandes que las unidades de 3 ½" sin
llegar a los de 5 ¼"
DISCOS COMPACTOS
Pasado un tiempo cuando ocurre la aparición del modelo 80586 de
Intel cuando se logran ver los primeros resultados de un estudio de años, y
eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar
hasta 650 Megabytes, lo que era un gran avance ya que todavía estaban disco
duros con menor capacidad vigentes en el mercado, así como también habían de mayor
capacidad de los mismos.
Esta tecnología trabajó por lectura/escritura óptica, es
decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la
medida de rapidez de esta unidad es mediante la letra "X" lo que
significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de
4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un
modelo experimental de 100X que no era mas que una farsa, ya que la unidad no
alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo
para el CPU, debido a
esta situación, hubo que quedarse con las unidades de máximo 52X para lectura
(Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que
grababan en los cd´s, conocidas como "Quemadoras", salen casi a la
par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó
por un tiempo la piratería que
no fue del todo prevista.
El funcionamiento de las unidades de cd no era muy
complejo, la lectura de
información ocurre cuando se hace pasar un fino haz de láser por
la superficie del disco. Que a su vez refleja este haz, y de acuerdo con lo que
tiene grabado, un detector lo lee. Diferentemente que los discos duros, los CD
están grabados en una pista tipo espiral, que comienza en la parte interior, y
termina en la orilla.
Los cd´s mantienen su calidad y su
vigencia hasta nuestros días, lo único que ha variado en ellos es la capacidad
que ahora llega hasta 900 Mb. Y existen discos compactos rescribidles que
tampoco fueron soltados al mercado inicialmente.

Fig. 3.1. Disco Compacto
DVD
Una vez mas los desarrolladores de tecnología no descansan, y
comienzan a ver que ahora que los discos duros tienen 80 GB. Se presenta de
nuevo el problema de hacer soporte de datos, ya que para hacer un soporte de un
disco de 70 Gigas, hacen falta 100 cd´s lo cual es demasiado, también se
presenta el problema de las películas, ya que el formato de VHS se comienza a
considerar obsoleto y malo, entonces se decide sacar un nuevo formato de disco,
con una tecnología óptica ya que resulta mucho mas económica y confiable que
las anteriores. Este nuevo desarrollo es conocido con el nombre de DVD,
prácticamente popular debido a que los formatos de películas los comenzaron a
hacer para este tipo de dispositivo, ya que al ser de mayor capacidad
(Especificaciones que se dirán mas adelante) puede tener una mejor calidad
de imagen y sonido la
grabación en ellos.
La unidad DVD es similar en su tamaño físico al CD, pero su
capacidad de almacenamiento es mucho mayor (Un DVD permite el almacenamiento de
entre 4.7 GB y 17 GB de datos). Se utiliza para almacenar películas en formato
de video digital
comprimido, con subtítulos en varios idiomas, y con algunas posibilidades de
interactividad. El material viene por zonas, siendo incompatibles entre sí los
reproductores y materiales de
zonas diferentes. El mecanismo de esta protección fue descubierto y puesto a
disposición en Internet, por lo que no consiguió los resultados que quería. La
especificación DVD soporta discos de gran capacidad con velocidades de
transferencia desde 600KB/s (Que equivale a quemar un CD a 4x). Además las
unidades DVD permiten leer los CD-ROM estándar, CD-I y vídeo CD. Es muy
probable que no se haya sustituido del todo el uso de los Cd´s para
computadoras porque los precios de
Grabadoras de DVD son realmente altos, aunque por las tendencias que ha tenido
el comercio de
la tecnología, seguramente bajará pronto su precio.
De este tipo de unidades es importante e imperativo estudiarlas
a fondo ya que son las que están rigiendo el sistema actualmente, por esta
razón debemos saber que existen diferentes formatos dentro de lo que se
denomina DVD. Son los siguientes:
·
DVD Video: sólo almacena películas en formato digital.
·
DVD-ROM: disco DVD de datos y de solo de lectura.
·
DVD-Audio: similar al CD de audio, pero de mucha más capacidad.
·
DVD-R: disco grabable una sola vez (como los CD-R), a partir de
entonces se comporta como un DVD-ROM.
·
DVD-RAM:
regrabable múltiples veces (como los CD-RW). Requiere un grabador de DVD que
soporte este formato.
·
DVD-RW: igual que el DVD-RAM, pero con un formato diferente (no
compatible con el anterior).
Lo que hace maravilloso a los DVD entre otras cosas es la
capacidad de compresión del espacio que se tiene, por ejemplo El tamaño de
las marcas en
un DVD de una cara es de 0"44 micras mientras que las de un CD son
0"83 micras. Por otra parte tenemos las caras y capas de los DVD, que
hacen que se forme otra división de clasificación de los mismos, es decir,
tenemos de acuerdo a las capas y caras una clasificación que es la siguiente:
·
DVD-5: una sola cara y una sola capa. Capacidad de 4"7GB.
·
DVD-9: una sola cara con doble capa. Capacidad de 8"5GB.
·
DVD-10: doble cara, pero una sola capa. Capacidad de 9"4GB.
·
DVD-18: doble cara y doble capa. Capacidad de 17GB.

Fig. 3.2. DVD
MEDICION DE LOS CD Y DVD
Ahora bien, otro dato interesante que nos arroja el estudio de
los DVD es que su capacidad de lectura es muchísimo superior a la de los CD´s
comunes, ejemplo de ello se puede ver midiendo 1X de un CD y 1X de un DVD,
mientras que la X del cd vale 150KB/s, la X del DVD vale 1250 KB/S, debido a
esta razón es que las unidades de DVD solo se han desarrollado hasta 8X que
equivale a 10 megas de transferencia.
Tecnologías futuras
ALMACENAMIENTO
HOLOGRÁFICO
Pese a que parezca un poco arriesgado a quedarse corto como ha
ocurrido en artículos de prensa y
proyecciones publicados a lo largo de estos años, pareciera que ahora sí se
puede tener una proyección bastante clara de lo que será el futuro de los
dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se
plantea una rama de almacenamiento holográfico, el concepto que
hay detrás del mismo no es nuevo. De la misma manera que un holograma codifica
objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD
(Holographic Versatile Disk) usa el mismo principio para almacenar datos con
densidades notablemente superiores a las de los actuales soportes ópticos. Sin
embargo resulta difícil de creer que puedan desarrollarla antes del año 2006.
Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya
implementada tecnología por SONY conocida como láser azul, sea el camino que
tome la computación y el almacenamiento de datos en los próximos años.

Fig. 4.1. Almacenamiento
Holográfico
LASER AZUL
Las razones son claras, y es que los diseñadores de la misma,
(referencias en la página Web de la empresa Osta)
pensaron bajo el siguiente paradigma, "si
todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo
láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente
especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser
especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi
infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a
dicha lente especial (lente de objetivo) debe ser
convertida a un punto de aproximadamente 1micra de diámetro para leer
correctamente las marcas del disco.
Para producir este pequeño punto es necesario comprimir el haz
de láser en un cono convergente de luz. La convergencia es medida por la
Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre,
tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede
aumentar utilizando un rayo láser para detectar las marcas del disco, lo que
implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud
del espectro de luz empleado.

GAMA DE COLORES
Si esta longitud de onda es muy grande, sólo se podrán leer
marcas grandes, ya que si son más pequeñas, el haz de luz abarcaría varias de
ellas simultáneamente. La marca más
pequeña que se puede obtener con tecnología óptica es determinada por el límite
de difracción que no es más que el espectro de luz visible. Toda esta teoría en
la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de
un extremo a otro de la gama de colores,
cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM,
logrando de esta manera una lectura de mayor precisión y destinada a mayores
capacidades. Los productos MO actuales (14x) usan una menor longitud de onda,
de 660 NM, comparados con la primera generación (1x) que era de 830 NM, lo que
permite incrementar la densidad de almacenamiento. Esto sucede igualmente con
el DVD, que tiene una longitud de onda de 650 NM por los 780 NM del CD. Como se
puede ver, la historia tanto de los dispositivos magnéticos como los ópticos se
repite, una vez creado el principio, solo se busca optimizar el espacio y la
densidad en ellos.
Conclusiones:
·
A lo largo de la historia, incluso desde tiempos en los que no
existía la electricidad, el hombre siempre
ha querido simplificar su modo de vida, por esta razón los grandes pensadores
de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías matemáticas para
construir máquinas que
simplifiquen las tareas de la vida diaria.
·
El verdadero auge de estas ideas comienza en la época de
la revolución industrial con
la aparición de la máquina de tejer, y muchas otras maquinarias. Luego se
comienza a necesitar realizar cálculos muy grandes, que eran difíciles de
realizar por el hombre, ya que
tomaba años terminar un cálculo. Entonces
comienzan a crear las computadoras, con ellas se realizaban las tareas
matemáticas de manera más rápida y segura.
·
Sin embargo no era suficiente, por naturaleza se
tiende a buscar mas rapidez, y es cuando comienza la técnica de
"miniaturización" que cada día se perfecciona mas; con este método se
logra hacer procesadores mas rápidos por circuitos mas
pequeños, de igual manera se logra tener capacidades de almacenamiento
abismales en espacios físicos muy pequeños, la ciencia de
la computación se encuentra en su mejor momento.
Sugerencias
Uno de los temas que más debe preocuparnos en nuestro ordenador
es el mantenimiento del
disco duro, ya que es en él en el que tenemos instalado nuestro sistema
operativo, nuestros programas y
donde guardamos nuestros datos.
La oxidación, la galvanización y las reacciones químicas entre
sus componentes, además del calor y el
maltrato, pueden destruir los "datos digitales". Por lo tanto, hay
que revisar periódicamente la información para detectar las fallas. Para evitar
el deterioro temprano de los compactos sólo hay que tratarlos bien: evitando
exponerlos al calor y la humedad, sujetarlos por los bordes o el centro, no
doblarlos y guardarlos siempre en sus cajas. Debe evitarse que las placas
entren en contacto constante con cualquier material. Los CD-R, basados en
tinturas orgánicas, son más perecederos y volátiles que los compactos y los
CD-ROM. Hay que verificar el backup cada dos años o menos. No es mala idea, el
hacer doble copia de todo y respaldar la información cada dos años




Comentarios
Publicar un comentario