La primera máquina de calcular
mecánica, un precursor del ordenador digital, fue inventada en 1642 por el
matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de
ruedas de diez dientes en las que cada uno de los dientes representaba un dígito
del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse
números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y
matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó
una que también podía multiplicar. El inventor francés Joseph Marie Jacquard,
al diseñar un telar automático, utilizó delgadas placas de madera perforadas
para controlar el tejido utilizado en los diseños complejos. Durante la década
de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar
datos. Hollerith consiguió compilar la información estadística destinada al
censo de población de 1890 de Estados Unidos mediante la utilización de un
sistema que hacía pasar tarjetas perforadas sobre contactos
eléctricos.
La máquina analítica
También en el siglo XIX el
matemático e inventor británico Charles Babbage elaboró los principios de la
computadora digital moderna. Inventó una serie de máquinas, como la máquina
diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos
historiadores consideran a Babbage y a su socia, la matemática británica Augusta
Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna. La tecnología de aquella época no
era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus
invenciones, la máquina analítica, ya tenía muchas de las caracteristicas de un
ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete
de tarjetas perforadas, una memoria para guardar los datos, un procesador para
las operaciones matemáticas y una impresora para hacer permanente el
registro.
Primeros Ordenadores
Los ordenadores analógicos
comenzaron a construirse a principios del siglo XX. Los primeros modelos
realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado
difíciles como para poder ser resueltas mediante otros métodos. Durante las dos
guerras mundiales se utilizaron sistemas informáticos analógicos, primero
mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos
en los submarinos y para el manejo a distancia de las bombas en la
aviación.

Ordenadores electrónicos
1944 marca
la fecha de la primera computadora, al modo actual, que se pone en
funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados
Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina
procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e
información se introducen en ella por medio de tarjetas perforadas y sus
componentes trabajan basados en principios electromecánicos. A pesar de su peso
superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la
primer máquina en poseer todas las características de una verdadera
computadora. La primera computadora electrónica fue terminada de construir en
1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se
le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa
a ser el centro del desarrollo tecnológico, y de una profunda modificación en el
comportamiento de las sociedades. Durante la II Guerra Mundial (1939-1945),
un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al
norte de Londres, crearon lo que se consideró el primer ordenador digital
totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que
incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por
el equipo dirigido por Alan Turing para descodificar los mensajes de radio
cifrados de los alemanes. En 1939 y con independencia de este proyecto, John
Atanasoff y Clifford Berry ya habían construido un prototipo de máquina
electrónica en el Iowa State College (EEUU). Este prototipo y las
investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por el desarrollo del Calculador e integrador numérico electrónico
(en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El
ENIAC, que según se demostró se basaba en gran medida en el ordenador
Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente
que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000
válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones
por minuto, pero su programa estaba conectado al procesador y debía ser
modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento
de programa que estaba basado en los conceptos del matemático
húngaro-estadounidense John Von Neumann. Las instrucciones se almacenaban dentro
de una llamada memoria, lo que liberaba al ordenador de las limitaciones de
velocidad del lector de cinta de papel durante la ejecución y permitía resolver
problemas sin necesidad de volver a conectarse al ordenador. A finales de la
década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de
elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las
máquinas con válvulas. Como los transistores utilizan mucha menos energía y
tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de
máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de
segunda generación. Los componentes se hicieron más pequeños, así como los
espacios entre ellos, por lo que la fabricación del sistema resultaba más
barata. Circuitos integrados
A finales de la década de 1960 apareció
el circuito integrado (CI), que posibilitó la fabricación de varios transistores
en un único sustrato de silicio en el que los cables de interconexión iban
soldados. El circuito integrado permitió una posterior reducción del precio, el
tamaño y los porcentajes de error. El microprocesador se convirtió en una
realidad a mediados de la década de 1970, con la introducción del circuito de
integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más
tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very
Large Scale Integrated), con varios miles de transistores interconectados
soldados sobre un único sustrato de silicios |
|
No hay comentarios.:
Publicar un comentario