Indice
1. El
Abaco
2. La Pascalina
3. Historia de la
computadora
4. La máquina
analítica
6. Circuitos
integrados
7. Generaciones De La
Computadora
8. Pioneros de la
computación
Quizás fue el primer dispositivo mecánico
de contabilidad
que existió. Se ha calculado que tuvo su origen hace al
menos 5000 años y su efectividad ha soportado la prueba
del tiempo.
El inventor y pintor Leonardo Da
Vinci (1452-1519) trazó las ideas para una sumadora
mecánica. Siglo y medio después, el
filósofo y matemático francés Blas Pascal
(1623-1662) inventó y construyó la primera sumadora
mecánica. Se le llamo Pascalina y
funcionaba como maquinaria a base de engranes y ruedas. A pesar
de que Pascal fue
enaltecido por toda Europa debido a
sus logros, la Pascalina, resultó un desconsolador fallo
financiero, pues para esos momentos, resultaba más costosa
que la labor humana para los cálculos
aritméticos.
3. Historia de la
computadora
La primera máquina de calcular mecánica,
un precursor del ordenador digital, fue inventada en 1642 por el
matemático francés Blaise Pascal. Aquel dispositivo
utilizaba una serie de ruedas de diez dientes en Las que cada uno
de los dientes representaba un dígito del 0 al 9. Las
ruedas estaban conectadas de tal manera que podían sumarse
números haciéndolas avanzar el número de
dientes correcto. En 1670 el filósofo y matemático
alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también
podía multiplicar.
El inventor francés Joseph Marie Jacquard, al
diseñar un telar automático, utilizó
delgadas placas de madera
perforadas para controlar el tejido utilizado en los
diseños complejos. Durante la década de 1880 el
estadístico estadounidense Herman Hollerith
concibió la idea de utilizar tarjetas
perforadas, similares a las placas de Jacquard, para procesar
datos.
Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos
mediante la utilización de un sistema que
hacía pasar tarjetas
perforadas sobre contactos eléctricos.
También en el siglo XIX el matemático e
inventor británico Charles Babbage elaboró los
principios de
la computadora
digital moderna. Inventó una serie de máquinas,
como la máquina diferencial, diseñadas para
solucionar problemas
matemáticos complejos. Muchos historiadores consideran a
Babbage y a su socia, la matemática
británica Augusta Ada Byron (1815-1852), hija del poeta
inglés
Lord Byron, como a los verdaderos inventores de la computadora
digital moderna. La tecnología de aquella
época no era capaz de trasladar a la práctica sus
acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las
características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de
paquete de tarjetas perforadas, una memoria para
guardar los datos, un
procesador
para las operaciones
matemáticas y una impresora para
hacer permanente el registro.
Los ordenadores analógicos comenzaron a
construirse a principios del
siglo XX. Los primeros modelos
realizaban los cálculos mediante ejes y engranajes
giratorios. Con estas máquinas
se evaluaban las aproximaciones numéricas de ecuaciones
demasiado difíciles como para poder ser
resueltas mediante otros métodos.
Durante las dos guerras
mundiales se utilizaron sistemas
informáticos analógicos, primero mecánicos y
más tarde eléctricos, para predecir la trayectoria
de los torpedos en los submarinos y para el manejo a distancia de
las bombas en la
aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial
(1939-1945), un equipo de científicos y matemáticos
que trabajaban en Bletchley Park, al norte de Londres, crearon lo
que se consideró el primer ordenador digital totalmente
electrónico: el Colossus. Hacia diciembre de 1943 el
Colossus, que incorporaba 1.500 válvulas o
tubos de vacío, era ya operativo. Fue utilizado por el
equipo dirigido por Alan Turing para descodificar los mensajes de
radio cifrados
de los alemanes. En 1939 y con independencia
de este proyecto, John
Atanasoff y Clifford Berry ya habían construido un
prototipo de máquina electrónica en el Iowa State College (EEUU)
Este prototipo y las investigaciones
posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el desarrollo del
Calculador e integrador numérico digital
electrónico (ENIAC) en 1945. El ENIAC, que según
mostró la evidencia se basaba en gran medida en el
‘ordenador’ Atanasoff-Berry (ABC, acrónimo de
Electronic Numerical Integrator and Computer), obtuvo una patente
que caducó en 1973, varias décadas más
tarde.
El ENIAC contenía 18.000 válvulas
de vacío y tenía una velocidad de
varios cientos de multiplicaciones por minuto, pero su programa estaba
conectado al procesador y
debía ser modificado manualmente. Se construyó un
sucesor del ENIAC con un almacenamiento de
programa que
estaba basado en los conceptos del matemático
húngaro-estadounidense John von Neumann. Las instrucciones
se almacenaban dentro de una llamada memoria, lo que
liberaba al ordenador de las limitaciones de velocidad del
lector de cinta de papel durante
la ejecución y permitía resolver problemas sin
necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del
transistor en
los ordenadores marcó el advenimiento de elementos
lógicos más pequeños, rápidos y
versátiles de lo que permitían las máquinas
con válvulas. Como los transistores
utilizan mucha menos energía y tienen una vida útil
más prolongada, a su desarrollo se
debió el nacimiento de máquinas más
perfeccionadas, que fueron llamadas ordenadores o computadoras
de segunda generación. Los componentes se hicieron
más pequeños, así como los espacios entre
ellos, por lo que la fabricación del sistema resultaba
más barata.
6. Circuitos
integrados
A finales de la década de 1960 apareció el
circuito integrado (CI), que posibilitó la
fabricación de varios transistores en
un único sustrato de silicio en el que los cables de
interconexión iban soldados. El circuito integrado
permitió una posterior reducción del precio, el
tamaño y los porcentajes de error. El microprocesador
se convirtió en una realidad a mediados de la
década de 1970, con la introducción del circuito de integración a gran escala (LSI,
acrónimo de Large Scale Integrated) y, más tarde,
con el circuito de integración a mayor escala (VLSI,
acrónimo de Very Large Scale Integrated), con varios miles
de transistores interconectados soldados sobre un único
sustrato de silicio.
7. Generaciones De La
Computadora
Teniendo en cuenta las diferentes etapas de desarrollo
que tuvieron las computadoras,
se consideran las siguientes divisiones como generaciones
aisladas con características propias de cada una, las
cuáles se enuncian a continuación.
Primera Generación
Sistemas
constituidos por tubos de vacío, desprendían
bastante calor y
tenían una vida relativamente corta. Máquinas
grandes y pesadas. Se construye el ordenador ENIAC de grandes
dimensiones (30 toneladas)
Almacenamiento de la información en tambor magnético
interior.
Un tambor magnético disponía de su interior del
ordenador, recogía y memorizaba los datos y los programas que se
le suministraban.
Programación en lenguaje
máquina, consistía en largas cadenas de bits, de
ceros y unos, por lo que la programación resultaba larga y
compleja.
Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.
Segunda Generación
Transistores
Cuando los tubos de vacío eran sustituidos por los
transistores, estas últimas eran más
económicas, más pequeñas que las
válvulas miniaturizadas consumían menos y
producían menos calor. Por
todos estos motivos, la densidad del
circuito podía ser aumentada sensiblemente, lo que
quería decir que los componentes podían colocarse
mucho más cerca unos a otros y ahorrar mucho más
espacio.
Tercera Generación
Circuito integrado (chips)
Aumenta la capacidad de almacenamiento y
se reduce el tiempo de
respuesta.
Generalización de lenguajes de
programación de alto nivel. Compatibilidad para
compartir software entre diversos
equipos.
Cuarta Generación
Microcircuito integrado
El microprocesador:
el proceso de
reducción del tamaño de los componentes llega a
operar a escalas microscópicas. La
microminiaturización permite construir el microprocesador,
circuito integrado que rige las funciones
fundamentales del ordenador.
Quinta Generación Y La Inteligencia
Artificial
El propósito de la Inteligencia
Artificial es equipar a las Computadoras con "Inteligencia
Humana" y con la capacidad de razonar para encontrar soluciones.
Otro factor fundamental del diseño,
la capacidad de la Computadora
para reconocer patrones y secuencias de procesamiento que haya
encontrado previamente, (programación Heurística)
que permita a la Computadora
recordar resultados previos e incluirlos en el procesamiento, en
esencia, la Computadora aprenderá a partir de sus propias
experiencias usará sus Datos originales para obtener la
respuesta por medio del razonamiento y conservará esos
resultados para posteriores tareas de procesamiento y toma de
decisiones. El
conocimiento recién adquirido le servirá como
base para la próxima serie de soluciones.
Atanasoff Y Berry
Una antigua patente de un dispositivo que mucha gente
creyó que era la primera computadora digital electrónica, se invalidó en 1973 por
orden de un tribunal federal, y oficialmente se le dio el
crédito
a John V. Atanasoff como el inventor de la computadora digital
electrónica. El Dr. Atanasoff, catedrático de la
Universidad
Estatal de Iowa, desarrolló la primera computadora digital
electrónica entre los años de 1937 a 1942.
Llamó a su invento la computadora Atanasoff-Berry,
ó solo ABC (Atanasoff Berry Computer) Un estudiante
graduado, Clifford Berry, fue una útil ayuda en la
construcción de la computadora
ABC.
Algunos autores consideran que no hay una sola persona a la que
se le pueda atribuir el haber inventado la computadora, sino que
fue el esfuerzo de muchas personas. Sin embargo en el antiguo
edificio de Física de la Universidad de
Iowa aparece una placa con la siguiente leyenda: "La primera
computadora digital electrónica de operación
automática del mundo, fue construida en este edificio en
1939 por John Vincent Atanasoff, matemático y
físico de la Facultad de la Universidad, quien
concibió la idea, y por Clifford Edward Berry, estudiante
graduado de física."
Pascal
Fue el primero en diseñar y construir una máquina
sumadora. Quería ayudar a su padre, quien era cobrador de
impuestos, con
los cálculos aritméticos. La máquina era
mecánica y tenía un sistema de engranes cada uno
con 10 dientes; en cada diente había grabado un
dígito entre el 0 y el 9. Así para representar un
número, el engrane del extremo derecho se movía
hasta tener el dígito de las unidades, el engrane que le
seguía a la izquierda tenía el dígito de las
decenas, el siguiente el de las centenas y así
sucesivamente. Los números se representaban en la
máquina como nosotros lo hacemos en notación
decimal.
Para realizar una suma o una resta, se activaba el
sistema de engranes que hacía girar cada uno de ellos.
Comenzaba por el extremo derecho y seguía, uno por uno,
hacia la izquierda. Cuando la suma en un engrane excedía
el número 9, automáticamente el engrane inmediato a
la izquierda se movía un décimo de vuelta
aumentando en 1 la cantidad que representaba. Así Blaise
Pascal logró resolver el problema del acarreo de
dígitos para las máquinas sumadoras y obtuvo una
máquina que podía sumar cualquier par de
números.
Charles Babagge
Sus máquinas y su legado
El Babbage del que todo mundo ha leído es, sin embargo, el
inventor fracasado que se pasó toda su vida intentando
construir la primera computadora de uso general de la historia y que, pese a haber
fracasado, hizo aportaciones muy significativas al desarrollo de
la informática.
Muchas son las visiones románticas y hasta un
tanto fantasiosas que se han escrito sobre la vida de Babbage.
Mucho es lo que se ha dicho sobre sus "maravillosas
máquinas", pero también mucha es la
confusión que se ha desarrollado en torno a sus
verdaderas aportaciones y a las razones por las que nunca pudo
completar la construcción de las mismas.
Wilkes nos ofrece quizá una de las visiones menos
apasionadas del genio de Babbage, y nos hace ver que realmente la
primera máquina que Babbage intentaba construir, llamada
Máquina Diferencial (Difference Engine) sólo era
capaz de tabular polinomios, y que requería, de cualquier
manera, bastante trabajo con lápiz y papel. La idea
no era realmente tan buena como Babbage pensaba, pero él
nunca lo hubiera admitido. Sin embargo, este proyecto tuvo un
impacto muy importante en la investigación aplicada en Inglaterra, pues
el gobierno
británico decidió financiarlo con una fuerte suma
de dinero, en su
afán de perfeccionar la impresión de las tablas de
navegación, tan comunes en aquella época. Joseph
Clement, tal vez el mejor fabricante de herramientas
del Reino Unido, fue asignado para trabajar con Babbage en el
diseño
de esta máquina. Sin embargo, tras una fuerte disputa
Babbage acabó quedándose solo y sin un centavo de
las £34,000 que invirtió en el proyecto
después de 10 años de intenso trabajo. Se ha
especulado que la máquina nunca se construyó porque
todavía no se contaba con la tecnología necesaria,
pero eso no parece ser cierto, dado que Georg y Edvard Scheutz,
dos ingenieros Suecos que leyeron un artículo sobre la
máquina de Babbage, fueron capaces de construir una
Máquina Diferencial unos 10 años después de
que el proyecto original se abandonara. La máquina
funcionó y fue vendida al Observatorio Dudley en Nueva
York, aunque se dice que nunca lo hizo muy bien y por ello pronto
cayó en desuso. Una réplica de esta máquina
se conserva en la oficina del Censo
de Londres.
Realmente, la aportación clave de Babbage a la
computación moderna vino con su siguiente
máquina: La Máquina Analítica (Analytical
Engine), el cual, de haberse construido, habría sido
efectivamente la primera computadora de uso general de la
historia. Babbage empezó a trabajar en este nuevo proyecto
en 1834, pese a su fracaso con su máquina anterior, y
continuó haciéndolo durante toda su vida. Su
modelo fue
refinado muchas veces, y a lo largo de este proceso,
Babbage tuvo muchas ideas visionarias sobre las computadoras. Por
ejemplo, sugirió el uso de tarjetas perforadas para
controlar su máquina, y anticipó el uso de las
mismas para representar un algoritmo e
incluso inventó el concepto de
bucles o ciclos en programación. También
anticipó el uso de microprogramación, aunque
dejó huecos importantes en su trabajo, y falló en
anticipar cuestiones tan obvias hoy en día como es el uso
de variables en
un programa. Todo este trabajo, habría permanecido
prácticamente desconocido por años de no haber sido
por Ada, Condesa de Lovelace, la hija del famoso poeta Lord
Byron, de quien hablaremos la próxima ocasión, que
se dio a la tarea de difundir las ideas de Babbage sobre su
máquina. Se ha llegado a decir sobre la Máquina
Analítica, que sería injusto afirmar que Babbage
fracasó también en su intento por construirla, pues
nunca intentó realmente hacerlo, sabedor de que
resultaría prácticamente imposible volver a
conseguir fondos para financiar tal proyecto. Sin embargo, sus
planos y notas fueron tan detallados que en 1991 el Museo
Nacional de Ciencia y
Tecnología de Londres construyó una
máquina basándose en ellos y usando sólo
materiales y
herramientas
disponibles en la época de Babbage. La máquina ha
funcionado desde entonces, sin ningún problema.
¿Por qué no pudo entonces Babbage lograr
fructificar su sueño? La respuesta sigue siendo un
misterio. Hay quienes dicen que le faltó habilidad
política
para negociar con el gobierno, pero la
verdad es que después de haberse gastado una fortuna y no
recibir nada a cambio, creo
que el gobierno de cualquier país se mostraría
reacio a seguir invirtiendo en el mismo proyecto. Tal vez la
verdadera razón haya sido la naturaleza
idealista de Babbage que le impedía materializar muchas de
sus maravillosas visiones, a la luz de su
obsesión por lo perfecto.
Babbage nunca tuvo miedo a ser olvidado ni se
sintió decepcionado por la indiferencia que sus
contemporáneos mostraron por su trabajo. Cerca del final
de su vida escribió: "No tengo miedo de dejar mi
reputación a cargo de aquel que tenga éxito
construyendo mi Máquina Analítica, porque él
y sólo él será capaz de apreciar totalmente
la naturaleza de
mi esfuerzo y el valor de sus
resultados". Nada más cierto que eso, puesto que a pesar
de que Charles Babbage murió en total soledad la
mañana del 18 de octubre de 1871 a sólo 2 meses de
volverse un octogenario, sus aportaciones serían realmente
apreciadas sólo hasta que las primeras computadoras
digitales fueron construidas, a mediados del presente siglo. Sus
experimentos
dejarían huella profunda en el trabajo
sobre autómatas del español
Leonardo Torres de Quevedo a principios de este siglo;
posiblemente la idea de Herman Hollerith de usar tarjetas
perforadas fue derivada por la sugerencia de Babbage, y se ha
llegado a especular que la Máquina Analítica pudo
haber sido incluso la fuente principal de inspiración del
modelo
teórico de la computadora moderna desarrollado por el
matemático Alan Turing y que hoy se conoce como
"máquina de Turing". Con tan convincente evidencia de la
importancia de sus ideas tal vez no importe tanto que Babbage no
haya logrado construir sus máquinas después de
todo, pues sus aportaciones resultaron igualmente significativas
de cualquier forma.
Se sabe que Babbage nunca recibió
remuneración alguna por su trabajo de 10 años en la
Máquina Diferencial, por lo que el Parlamento Inglés
decidió ofrecerle un título de nobleza a cambio (le
ofrecieron el título de Barón) Babbage
rehusó aceptarlo, pidiendo mejor una pensión
vitalicia que nunca le fue concedida. ¿Un error de
apreciación? No realmente, si consideramos que lo que
realmente recibió a cambió del trabajo de toda una
vida fue algo más valioso que cualquier título de
nobleza: un sitio privilegiado en la historia de la
informática, el de padre de la computación moderna.
Gottfried Wihelm Leibniz
Demostró las ventajas de utilizar el sistema
binario en lugar del decimal en las computadoras
mecánicas.
Inventó y construyó una máquina
aritmética que realizaba las cuatro operaciones
básicas y calculaba raíces cuadradas.
Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora
Alemania)
Murió el 14 de noviembre de 1716 en Hannover, Hannover
(ahora Alemania)
Leibniz ha sido uno de los más grandes matemáticos
de la historia, se le reconoce como uno de los creadores del
Cálculo
Diferencial e Integral; pero fue un hombre
universal que trabajó en varias disciplinas: lógica,
mecánica, geología,
jurisprudencia, historia, lingüística
y teología.
Inventó una máquina aritmética que
empezó a diseñar en 1671 y terminó de
construir en 1694; era una máquina mucho más
avanzada que la que había inventado Pascal y a la que
llamó "calculadora secuencial o por pasos", en
alemán: "dice Getrocknetsrechenmaschine". La
máquina no sólo sumaba y restaba, sino que
además podía multiplicar, dividir y sacar
raíz cuadrada. Sin embargo, en esa época el
desarrollo de la técnica no se encontraba en condiciones
de producir en serie las piezas de gran precisión
indispensables para el funcionamiento de la
máquina.
El modelo que construyó Leibniz nunca
funcionó correctamente; sin embargo, en 1794 se
construyó un modelo funcional de la calculadora de Leibniz
que actualmente se exhibe en la Real Sociedad de
Londres. Esta última máquina tampoco resultó
confiable y no fue sino hasta 1820 cuando se fabricó un
aparato infalible y comercial capaz de realizar las cuatro
operaciones aritméticas fundamentales.
John Von Neumann : un genio incomparable
Su interés
por la computación
Con el advenimiento de la Segunda Guerra
Mundial, von Neumann hubo de abandonar sus estudios en
matemáticas puras, y concentrarse en
problemas más prácticos para servir al Gobierno del
que ahora era nacional. Fue consultor en proyectos de
balística, en ondas de
detonación, y eventualmente, se involucró en el
desarrollo de la bomba atómica, en donde demostró
la factibilidad
de la técnica de implosión que más tarde se
usaría en la bomba que detonó en Nagasaki. Sin
embargo, debido a su valía como consultor en otras
agencias gubernamentales ligadas a la guerra, von
Neumann fue uno de los pocos científicos a quien no se le
requirió permanecer de tiempo completo en Los
Álamos. Fue precisamente durante la primera mitad de 1943,
en plena guerra, que se
interesó por primera vez en la computación. Tras un
viaje a Inglaterra, le
dijo a Voblen que creía sumamente importante que se
utilizaran máquinas para acelerar los complejos
cálculos involucrados con su trabajo. Aunque comenzaron a
utilizar equipo de IBM, éste no satisfizo las necesidades
del Proyecto Manhattan, y von Neumann empezó pronto a
buscar opciones en otros lados. En 1944 sólo había
unos pocos proyectos para
desarrollar computadoras en los Estados Unidos:
Howard Aiken en Harvard, George Stibitz en Laboratorios Bell, Jan
Schilt en la Universidad Columbia, y Presper Eckert y John W.
Mauchly, en la Universidad de Pennsylvania. Aunque von Neumann
contactó a los 3 primeros científicos y estuvo en
contacto con sus máquinas, la única computadora con
la que realmente se involucró a fondo fue la
última, llamada ENIAC (Electronic Numerical Integrator and
Computer), que durante mucho tiempo fue ignorada por la comunidad
científica, y que con el apoyo de von Neumann fue
finalmente tomada en serio hasta convertirse en un proyecto de
primera línea. Curiosamente, la ENIAC tenía una
arquitectura
en paralelo, aunque casi carecía de memoria (sólo
podía almacenar 20 palabras), y otra máquina
más ambiciosa, llamada EDVAC (Electronic Discrete Variable
Arithmetic Computer) nació del deseo de sus
diseñadores de construir una máquina "más
útil" que operara en serie. Desgraciadamente, la
reputación de von Neumann tenía también su
lado negativo, y debido a una indiscreción a la prensa y al hecho
de que firmó como autor único un borrador del
EDVAC, el proyecto no sólo perdió su status de
secreto, sino que se volvió objeto de una enorme
controversia, pues Mauchly y Eckert no sólo se disgustaron
mucho por no haber recibido el crédito
debido, sino que fueron despedidos de la Universidad de
Pennsylvania ante su negativa de ceder a la institución
los derechos del
ENIAC. Este error le costó a la Universidad de
Pennsylvania el perder su status de universidad de primer nivel
en los Estados Unidos, y todavía hoy se recuerda a
éste como uno de sus peores momentos históricos.
Eventualmente, la guerra terminó, el EDVAC se
volvió del dominio
público, Mauchly y Eckert fundaron su propia empresa y von
Neumann regresó a Princeton con el sueño de
construir su propia máquina.
Sus Últimos Años
Debido a los tropiezos que tuvo inicialmente para conseguir
dinero para
construir su computadora, varias universidades le ofrecieron
trabajo a von Neumann después de la guerra, y aunque
estuvo cerca de aceptar al menos una de estas ofertas, fue leal
al IEA, y finalmente logró conseguir los fondos que
necesitaba para su proyecto con ayuda de Princeton y la RCA. Su
idea era construir una máquina similar a EDVAC pero
más poderosa y más rápida. La computadora
IAS fue eventualmente construida en los 50s, y su diseño
ha servido como inspiración para la mayoría de las
computadoras modernas, si bien la arquitectura que
hoy recibe su nombre no fue realmente producto de su
inventiva. Sus principales contribuciones en computación
fueron: la noción del uso de monitores para
visualizar datos, la invención del diagrama de
flujo, la teoría
de los autómatas celulares, incontables técnicas
de cómputo matemático, fue co-autor de la teoría de
juegos que dio pie al famoso método de
Montecarlo, y fue co-autor del otrora famoso libro:
"Cybernetics: Or Control and
Communication in the Animal and the Machine" en el que explicaba
junto con Norbert Wiener la manera en que los cerebros
electrónicos podrían efectuar tareas humanas de
diferentes grados de dificultad.
En octubre de 1954 se volvió miembro de la
Comisión de Energía Atómica, por lo que se
tuvo que mudar junto con su esposa a Georgetown, en Washington,
D.C. A la vez, sirvió como consultor para la IBM, en donde
conoció a John Backus mientras desarrollaba el FORTRAN.
Curiosamente, von Neumann desdeñó el trabajo de
Backus pensando que nadie requeriría jamás usar un
lenguaje de
programación de más alto nivel que el lenguaje
binario que él tan bien conocía. En el verano de
ese mismo año, se lastimó el hombro izquierdo en
una caída, y en la cirugía posterior se
descubrió que tenía cáncer en los huesos. Pese a
saberse cerca de la muerte,
continuó con su tremendo ritmo de trabajo, y en sus
últimos días el secretario de defensa, y los
secretarios del ejército, la marina y la fuerza
aérea norteamericanas, se daban cita alrededor de la cama
de von Neumann en el hospital Water Reed en Washington, D.C.
Sólo médicos y personal con
autorización militar podían verlo, ante el temor
que revelara secretos importantes mientras estaba sedado. Para
ese entonces, von Neumann había recibido un
sinnúmero de doctorados Honoris Causa, la medalla
presidencial al mérito, el premio Enrico Fermi y el premio
Albert
Einstein. Aunque nunca practicó en vida la religión
Católica, bajo la cual fue bautizado por sus padres, al
sentir cerca su fin pidió que un sacerdote le diera los
sacramentos. Sus planes de irse a trabajar como profesor a la
Universidad de California en Los Ángeles nunca se
volverían realidad, porque el "mejor matemático del
mundo", como lo llamara Herman H. Goldstine, falleció el 8
de febrero de 1957. Su leyenda, sin embargo, sigue viva hasta
nuestros días en los corredores de Princeton y en una
pléyade de libros
alrededor del mundo.
Ada Byron
Ada Byron conoció a Charles Babbage en 1833, cuando ella
tenía 18 años y el 42. Quedó tan
impresionada por las ideas sobre las máquinas que Babbage
inventaba que decidió estudiar matemáticas para
poder ayudar a
su amigo en lo que se refería a la rama teórica de
sus inventos. Se
convirtió, con el paso de los años, en una gran
matemática
y científica. Trabajó siempre muy cerca de Babbage
en el diseño de máquinas computadoras y muy en
particular en el diseño de la "máquina
analítica". A propósito escribió:
"La característica que distingue a la
máquina analítica, es la inclusión en ella
del principio que Jacquard concibió para regular la
fabricación, mediante tarjetas perforadas, de los
más complicados modelos de
brocados. Al capacitar a los mecanismos para combinar entre
sí símbolos generales en sucesiones de
variedad y extensión ilimitadas, se establece un
eslabón entre las operaciones materiales y
los procesos
mentales abstractos de la rama más teórica de
la ciencia
matemática. Se desarrolla un lenguaje
nuevo, amplio y poderoso, para su empleo futuro
en el análisis, cuyas verdades se podrán
manejar de modo que su aplicación sea más
práctica y precisa para la humanidad de lo que hasta ahora
han hecho las medidas a nuestro alcance…"
Ada Byron desarrolló de manera teórica el
primer programa que la máquina analítica
utilizó, pero su trabajo no se limitó a la parte
científica; cuando el gobierno les retiro el apoyo
financiero, Ada apostó en las carreras de caballos y
empeñó todas sus joyas para obtener el dinero que
se necesitaba en la construcción de la
máquina.
Herman Hollerith
A los 19 años se graduó en la escuela de
minería de
la Universidad de Columbia y empezó a trabajar en la
Oficina de
Censos de los Estados Unidos. En 1880 se realizó el primer
gran censo de ese país y la información se
escribió en tarjetas extremadamente largas que
debían acomodarse y contarse manualmente en las
clasificaciones deseadas: edad, sexo,
ocupación, etcétera, lo cual obligaba a que se
reacomodaran y contaran varias veces.
Hollerith se propuso desarrollar un método
más práctico para manejar estos datos. En 1889
termino su "máquina tabuladora eléctrica" que
lograba registrar datos en tarjetas perforadas. Gracias a este
invento se lograban tabular de 50 a 75 tarjetas por minuto y
conteos que manualmente se hubieran terminado en años,
podían lograrse en pocos meses.
Herman Hollerith fundó en 1896 la Compañía
de Máquinas Tabuladoras para promover el uso comercial de
su invento. Más tarde la compañía
cambió al nombre de International Business Machine
(IBM).
Howard H. Aiken
Construyó una computadora electromecánica
programable siguiendo las ideas introducidas por Babbage
A partir de 1939 Howard Aiken, de la Universidad de Harvard, en
asociación con ingenieros de la compañía
IBM, trabajó durante 5 años en la
construcción de una computadora totalmente
automática, la "Harvard Mark I" que medía 15 metros
de largo por 2.4 de altura.
Esta máquina se controlaba con tarjetas perforadas,
podía realizar cinco operaciones fundamentales: suma,
resta,
multiplicación, división y consulta de tablas de
referencia. Los datos entraban mediante tarjetas perforadas y
salían a través de una máquina
electrónica.
Konrad Zuse
Introdujo interruptores magnéticos, llamados relevadores
eléctricos en las computadoras.
Introdujo el control
programado mediante cinta perforada lo que permitió
automatizar el proceso de cálculo.
Construyó la primera computadora electromecánica
programable.
Zuse continuó perfeccionando la computadora y en 1939
terminó una segunda versión a la que llamó
Z2, dos años más tarde presentó la Z3,
considerada por los expertos como la primera computadora
totalmente programable. Esta computadora contenía en su
procesador y en su memoria cerca de 2,600 relevadores que eran
interruptores magnéticos que permitían introducir
en las máquinas la representación binaria de los
números.
En 1941 Zuse y un amigo solicitaron al gobierno
alemán un patrocinio para construir una computadora
electrónica más rápida que utilizara tubos
de vacío. Sin embargo la ayuda no les fue otorgada y la
máquina se quedó en proyecto.
Alan Mathison Turing
Diseñó la primera computadora electrónica
digital de bulbos.
Turing fue un gran matemático, lógico y
teórico de la computación. Cundo era estudiante de
postgrado en la universidad de Princeton en 1936, publicó
el artículo "On computable numbers", que estableció
las bases teóricas para la computación moderna. En
él describió lo que después se llamó
la "Máquina de Turing": un dispositivo teórico que
leía instrucciones de una cinta de papel perforada y
ejecutaba todas las operaciones de una computadora. El
artículo también fijó los límites de
las ciencias de la
computación al demostrar que existen problemas que
ningún tipo de computadora podrá
resolver.
Después de doctorarse en 1938, Turing tuvo la
oportunidad de poner sus teorías
en práctica. Bajo su dirección se construyó "Colossus",
una máquina cuyo propósito era descifrar el
código
secreto militar alemán y que fue terminada en 1943. En la
actualidad se le considera la primera computadora digital
electrónica.
J. Presper Eckert y John W. Mauchly
Construyeron la computadora electrónica
más grande del mundo y utilizaron para ello 18,000
bulbos.
J. Presper Eckert y John W. Mauchly, de la Universidad de
Pennsylvania, inventaron y desarrollaron en 1946 la ENIAC,
acrónimo de Electronic Numerical Integrator and
Calculator. Fue la mayor computadora de bulbos construida para
uso general. Cuando ENIAC funcionaba correctamente, la velocidad
de cálculo
era entre 500 y 1000 veces superior a las calculadoras
electromecánicas de su tiempo, casi la velocidad de las
calculadoras de bolsillo de hoy.
Años más tarde Eckert y Mauchly construyeron la
UNIVAC, la primera computadora que manejó
información alfabética y numérica con igual
facilidad.
Autor:
Luis Alberto Meneses Espinoza