- La Era
Mecánica - La Primera Generación
(electromecánicos y electrónicos de tubos de
vacío) - La Segunda Generación
(los transistores y los avances en
programación) - Tercera Generación
(cicuitos integrados y
minituarización) - Cuarta Generación
(ordenadores personales de uso
doméstico)
La Computación, y por tanto, las Ciencias de la
Computación, tienen su origen en el cálculo,
es decir, en la preocupación del ser humano por encontrar
maneras de realizar operaciones
matemáticas de forma cada vez más
rápida y más fácilmente. Pronto se vio que
con ayuda de aparatos y máquinas
las operaciones podían realizarse de forma más
rápida y automática.
El primer ejemplo que encontramos en la historia es el ábaco,
aparecido hacia el 500 AC en Oriente Próximo, que
servía para agilizar las operaciones aritméticas
básicas, y que se extendió a China y
Japón,
siendo descubierto mucho más tarde por Europa.
También es digno de señalar el conocido
Mecanismo de Antikythera, recuperado en 1900, construido
alrededor del año 80 a.C., en la isla griega de Rodas,
ubicada en el mar Egeo. Era un artefacto de cálculo
astronómico con mecanismos de precisión.
El usuario, por medio de una perilla, podía
accionar un simulador en miniatura del movimiento del
sol, la luna y varios planetas,
teniendo a la vista la fecha en que se había dado, o se
daría, tal combinación. Es tanta su
sofisticación que ha sido llamado la primera computadora de
Occidente.
Por otra parte, los matemáticos hindúes,
árabes y europeos fueron los primeros que desarrollaron
técnicas de cálculo escrito. El
matemático árabe Al'Khwarizmi, alrededor del
año 830 DC, escribe un libro de
Aritmética, traducido al latín como Algoritmi de
numero Indorum, donde introduce el sistema
numérico indio (sólo conocido por los árabes
unos 50 años antes) y los métodos
para calcular con él. De esta versión latina
proviene la palabra algoritmo.
A finales del siglo XVI y comienzos del XVII comienza lo
que denominamos Era Mecánica, en la que se intenta que aparatos
mecánicos realicen operaciones matemáticas de forma
prácticamente automática. En 1610, John Napier
(1550-1617), inventor de los logaritmos, desarrolló las
Varillas de Napier, que servían para simplificar la
multiplicación. En 1641, el matemático y
filósofo francés Blaise Pascal
(1623-1662), con tan sólo 19 años, construyó
una máquina mecánica para realizar adiciones, la
Pascalina, para ayudar a su padre. Por su parte, Gottfried
Wilhelm Leibniz (1646-1716) propuso el sistema
binario para realizar los cálculos, construyendo una
máquina que podía multiplicar, en incluso
teóricamente, realizar las cuatro operaciones
aritméticas.
Sin embargo, la tecnología disponible
le imposibilita la realización de las operaciones con
exactitud. No obstante un estudiante alemán de la Universidad de
Tubingen, Wilhelm Schickard (1592-1635) ya había
construido una máquina de estas características
entre 1623 y 1624, de la que hace unas breves descripciones en
dos cartas dirigidas
a Johannes Kepler. Por desgracia, al menos una de las
máquinas quedó destruida en un incendio, y el
propio Schickard murió poco después, víctima
de la peste bubónica.
Los trabajos de Pascal y Leibniz tuvieron su
continuación en 1727, cuando Jacob Leupold propuso algunas
mejoras sobre el mecanismo de Leibniz. En 1777, Charles Mahon
(1753-1816), Conde de Stanhope, construyó una
máquina aritmética y otra lógica,
esta última llamada Demostrador de Stanhope. En 1825, el
francés Charles Xavier Thomas de Colmar diseña una
máquina calculadora que posteriormente consigue
comercializar con éxito.
Una mención muy especial requiere el desarrollo de
un telar automático por el francés Joseph Jacquard
(1752-1834), en 1801. En efecto, analizando las operaciones
repetitivas que requería la producción de telas, este inventor
imaginó conservar la información repetitiva necesaria bajo la
forma de perforaciones en tarjetas.
Estas perforaciones eran detectadas
mecánicamente, asegurando el desplazamiento adecuado de
las guías del hilado, pudiendo una sola persona tejer
complicados patrones codificados en las perforaciones de las
tarjetas.
Fue Charles Babbage (1791-18171) el que
diseñó una verdadera máquina procesadora de
información, capaz de autocontrolar su funcionamiento.
Desesperado por los errores contenidos en las tablas
numéricas de la época y dándose cuenta de
que la mayoría de los cálculos consistían en
tediosas operaciones repetitivas, este profesor de la
Universidad de Cambridge, proyecta e inicia la construcción de un nuevo tipo de
calculadora.
En 1821 presentó a la Royal Society una
máquina capaz de resolver ecuaciones
polinómicas mediante el cálculo de diferencias
sucesivas entre conjuntos de
números, llamada Máquina Diferencial. Obtuvo por
ello la medalla de oro de la
Sociedad en
1822.
Más tarde, Babbage empezó a trabajar en la
Máquina Analítica, en cuya concepción
colaboró directamente Ada Augusta Byron, Condesa de
Lovelace, hija de Lord Byron. El objetivo
perseguido era obtener una máquina calculadora de
propósito general, controlada por una secuencia de
instrucciones, con una unidad de proceso, una
memoria
central, facilidades de entrada y salida de datos, y
posibilidades de control paso a
paso, es decir, lo que hoy conocemos como programa. Ada
Lovelace, a quien se reconoce como la primera programadora de la
historia, y en honor de quien se puso el nombre de Ada al
conocido lenguaje de
programación, ayudó a Babbage
económicamente, vendiendo todas sus joyas, y
escribió artículos y programas para la
referida máquina, algunos de ellos sobre juegos. Sin
embargo, este proyecto tampoco
pudo realizarse por razones económicas y
tecnológicas.
En el 1854, George Boole publica Las leyes del
pensamiento
sobre las cuales son basadas las teorías
matemáticas de Lógica y Probabilidad.
Boole aproximó la lógica en una nueva
dirección reduciéndola a una
álgebra
simple, incorporando lógica en las matemáticas.
Comenzaba el álgebra de la lógica llamada Algebra
Booleana. Su álgebra consiste en un método
para resolver problemas de
lógica que recurre solamente a los valores
binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT
(no).
La
Primera Generación (electromecánicos y
electrónicos de tubos de vacío)
Para tabular el censo de 1890, el gobierno de
Estados Unidos
estimó que se invertirían alrededor de diez
años. Un poco antes, Herman Hollerith (1860-1929),
había desarrollado un sistema de tarjetas perforadas
eléctrico y basado en la lógica de Boole,
aplicándolo a una máquina tabuladora de su
invención.
La máquina de Hollerith se usó para
tabular el censo de aquel año, durando el proceso total no
más de dos años y medio. Así, en 1896,
Hollerith crea la Tabulating Machine Company con la que
pretendía comercializar su máquina. La fusión de
esta empresa con otras
dos, dio lugar, en 1924, a la International Business Machines
Corporation (IBM).
Sin embargo, en el censo de 1910, el sistema de
Hollerith fue sustituido por uno desarrollado por James Powers.
En 1911 James Powers constituyó la Power's Tabulating
Machine Company, convirtiéndose en el principal competidor
de Hollerith.
En 1900, en el Congreso Internacional de
Matemáticas de París, David Hilbert (1862-1943)
pronunció una conferencia de
título Problemas matemáticos, en la que
proponía una lista de 23 problemas que estaban sin
resolver (algunos todavía lo están).
Dos de estas cuestiones fueron: ¿es la matemática
completa?, es decir, ¿puede ser demostrada o refutada
cualquier sentencia matemática? y ¿es la
matemática consistente?, es decir, ¿es cierto que
sentencias tales como 0 = 1 no pueden demostrarse por
métodos válidos?. En 1931, Kurt Gödel
(1906-1978) fue capaz de responder a estas dos preguntas,
demostrando que cualquier sistema formal suficientemente potente
es inconsistente o incompleto.
Otra de las cuestiones era: ¿son las
matemáticas decidibles? es decir, ¿hay un
método definido que pueda aplicarse a cualquier sentencia
matemática y que nos diga si esa sentencia es cierta o
no?. Esta cuestión recibió el nombre de
enstcheidungsproblem.
En 1936, Alan Turing (1912-1954) contestó a esta
cuestión en el artículo On Computable Numbers. Para
resolver la cuestión Turing construyó un modelo formal
de computador, la
Máquina de Turing, y demostró que había
problemas tales que una máquina no podía resolver.
Al mismo tiempo en
Estados Unidos contestaba a la misma cuestión Alonzo
Chuch, basándose en una notación formal, que
denominó cálculo lambda, para transformar todas las
fórmulas matemáticas a una forma
estándar.
Basándose en estos resultados, entre 1936 y 1941,
el ingeniero alemán Konrad Zuse (1910-1957),
diseñó y construyó su serie de computadores
electromecánicos binarios, desde el Z1 hasta el Z3. Sin
embargo estos computadores no tuvieron mucha difusión, ni
siquiera dentro de su país, ya que el gobierno nazi nunca
confió en los trabajos de Zuse.
En 1938, Claude Shannon (1916- ) demostró
cómo las operaciones booleanas elementales, se
podían representar mediante circuitos
conmutadores eléctricos, y cómo la
combinación de circuitos podía representar
operaciones aritméticas y lógicas complejas.
Además demostró como el álgebra de Boole se
podía utilizar para simplificar circuitos conmutadores. El
enlace entre lógica y electrónica estaba establecido.
Al desencadenarse la Segunda Guerra
Mundial, la necesidad de realizar complicados cálculos
balísticos y la exigencia de descodificar los mensajes
cifrados del otro bando, impulsó el desarrollo de los
computadores electrónicos de propósito general. El
propio Turing fue reclutado en Bletchley Park, en Inglaterra, para
descifrar los mensajes que encriptaba la máquina alemana
Enigma, para lo que fue necesario construir la computadora
Colossus.
En la Universidad de Harvard, Howard Aiken (1900-1973)
en colaboración con IBM, empezó, en 1939, la
construcción del computador electromecánico Mark I,
en la que trabajó como programadora Grace Murray Hopper.
Pero para cuando se terminó en 1944, ya habían
aparecido las primeras computadoras
totalmente electrónicas, que eran mucho más
rápidas.
Por otro lado, en la Universidad del Estado de
Iowa, entre 1937 y 1942, John Vincent Atanasoff (1903-1995) y
Clifford Berry, diseñaron y construyeron la ABC
(Atanasoff-Berry Computer). Terminada en 1942, fue la primera
computadora electrónica digital, aunque sin buenos
resultados y nunca fue mejorada. En 1941, John W. Mauchly
(1907-1980) visitó a Atanasoff y observó de cerca
su impresionante maquinaria, teniendo la oportunidad de revisar
su tecnología. Más tarde, Mauchly y J. Presper
Eckert, Jr (1919-1995), diseñaron y construyeron, entre
los años 1943 y 1946, el computador eléctrico de
propósito general ENIAC. Existe una gran controversia
respecto a que Mauchly copiara muchas de las ideas y conceptos
del profesor Atanasoff, para construir la computadora ENIAC. En
cualquier caso en las últimas fases de su diseño
y construcción aparece la importante figura de John
Von Neumann
(1903-1957), que actúa como consultor.
Von Neumann escribió en 1946, en
colaboración con Arthur W. Burks y Herman H. Goldstine,
Preliminary Discussion of the Logical Design of an Electronic
Computing Instrument, que contiene la idea de Máquina de
Von Neumann, que es la descripción de la arquitectura que,
desde 1946, se aplica a todos los computadores que se han
construido.
Con estos fundamentos, Eckert y Mauchly construyen en la
Universidad de Manchester, en Connecticut (EE.UU.), en 1949 el
primer equipo con capacidad de almacenamiento de
memoria, la EDVAC. Eckert y Mauchly forman una corporación
para construir una máquina que se pueda comercializar,
pero, debido a problemas financieros, se vieron obligados a
vender su compañía a a Remington Rand Corp.
Trabajando para esta compañía fue que se
concluyó el proyecto Univac, en 1951.
También por esta época Maurice Wilkes
construye la EDSAC en Cambridge (Inglaterra) y F.C. Williams
construye en Manchester (Inglaterra), la Manchester Mark
I.
Estas máquinas se programaban directamente en
lenguaje
máquina, pero a partir de mediados de los 50, se produjo
un gran avance en la programación avanzada.
La
Segunda Generación (los transistores y
los avances en programación)
Allá por 1945 la máxima limitación
de las computadoras era la lenta velocidad de
procesamiento de los relés electromecánicos y la
pobre disipación de calor de los
amplificadores basados en tubos de vacío.
En 1947, John Bardeen, Walter Brattain y William
Shockley inventan el transistor,
recibiendo el Premio Nobel de Física en 1956. Un
transistor contiene un material semiconductor, normalmente
silicio, que puede cambiar su estado eléctrico. En su
estado normal el semiconductor no es conductivo, pero cuando se
le aplica un determinado voltaje se convierte en conductivo y la
corriente
eléctrica fluye a través de éste,
funcionando como un interruptor electrónico.
Los computadores construidos con transistores eran
más rápidos, más pequeños y
producían menos calor, dando también oportunidad a
que, más tarde, se desarrollaran los microprocesadores. Algunas de las máquinas
que se construyeron en esta época fueron la TRADIC, de los
Laboratorios Bell (donde se inventó el transistor), en
1954, la TX-0 del laboratorio
LINCOLN del MIT y las IBM 704, 709 y 7094. También aparece
en esta generación el concepto de
supercomputador, específicamente diseñados para el
cálculo en aplicaciones científicas y mucho
más potentes que los de su misma generación, como
el Livermore Atomic Research Computer (LARC) y la IBM
7030.
Pero esta generación se explica también
por los avances teóricos que se dan.
Así, en 1950, Alan Turing publica el
artículo Computing Machinery and Intelligence en la
revista Mind,
en el que introducía el célebre Test de Turing.
Este artículo estimuló a los pensadores sobre la
filosofía e investigación en el campo de la Inteligencia
Artificial. Por desgracia, Turing no fue testigo del interés
que desató su artículo, porque en 1952 fue detenido
por su relación homosexual con Arnold Murray y fue
obligado a mantener un tratamiento con estrógenos que le
hizo impotente y le produjo el crecimiento de pechos. En 1957,
fue encontrado muerto en su casa al lado de una manzana mordida a
la que había inyectado cianuro.
En 1951, Grace Murray Hooper (1906-1992) da la primera
noción de compilador y más tarde desarrolla el
COBOL. Pero
fue John Backus, en 1957, el que desarrolla el primer compilador
para FORTRAN. En 1958, John MacCarthy propone el LISP, un
lenguaje orientado a la realización de aplicaciones en el
ámbito de la Inteligencia
Artificial. Casi de forma paralela, Alan Perlis, John Backus y
Peter Naur desarrollan el lenguaje
ALGOL.
Pero el personaje más importante en el avance del
campo de los algoritmos y
su análisis, es Edsger Dijkstra (1930- ), que
en 1956, propuso su conocido algoritmo para la
determinación de los caminos mínimos en un grafo, y
más adelante, el algoritmo del árbol generador
minimal. Más tarde, en 1961, N. Brujin introduce la
notación O, que sería sistematizada y generalizada
por D. Knuth. En 1957, aparece la Programación Dinámica de la mano de R. Bellman. En 1960,
S. Golomb y L. Baumet presentan las Técnicas Backtracking
para la exploración de grafos. Se
publican en 1962 los primeros algoritmos del tipo Divide y
Vencerás: el QuickSort de Charles Hoare y el de la
multiplicación de grandes enteros de A. Karatsuba e Y.
Ofman.
En 1959, Jack Kilby (1923- ) presenta el primer circuito
integrado, un conjunto de transistores interconectados con
resistencias,
en una pequeña pastilla de silicio y metal, llamada chip.
Fue a partir de este hecho que las computadoras empezaron a
fabricarse de menor tamaño, más veloces y a menor
costo, debido a
que la cantidad de transistores colocados en un solo chip fue
aumentando en forma exponencial.
Tercera Generación (cicuitos integrados y
minituarización)
A partir del circuito integrado, se producen nuevas
máquinas, mucho más pequeñas y
rápidas que las anteriores, así aparecen las IBM
360/91, IBM 195, SOLOMON (desarrollada por la Westinghouse
Corporation) y la ILLIAC IV, producida por Burroughs, el
Ministerio de Defensa de los EE.UU y la Universidad de
Illinois.
Seymour Cray (1925-1996) revoluciona el campo de la
supercomputación con sus diseños: en 1964, el CDC
6600, que era capaz de realizar un millón de operaciones
en coma flotante por segundo; en 1969, el CDC 7600, el primer
procesador
vectorial, diez veces más rápido que su
predecesor.
En cuanto a los avances teóricos, a mediados de
los 60, un profesor de Ciencias de la Computación, Niklaus
Wirth, desarrolla el lenguaje PASCAL, y en Berkeley, el profesor
Lotfi A. Zadeh, publica su artículo Fuzzy Sets, que
revoluciona campos como la Inteligencia Artificial, la Teoría
de Control o la Arquitectura de Computadores.
En 1971, Intel introduce el primer microprocesador.
El potentísimo 4004 procesaba 4 bits de datos a la vez,
tenía su propia unidad lógicoaritmética, su
propia unidad de control y 2 chips de memoria. Este conjunto de
2.300 transistores que ejecutaba 60.000 operaciones por segundo
se puso a la venta por 200
dólares. Muy pronto Intel comercializó el 8008,
capaz de procesar el doble de datos que su antecesor y que
inundó los aparatos de aeropuertos, restaurantes, salones
recreativos, hospitales, gasolineras…A partir de aquí
nacieron las tecnologías de integración a gran escala (LSI) y de
integración a muy gran escala (VLSI), con las que procesadores muy
complejos podían colocarse en un pequeño
chip.
Sin embargo, hasta este momento, por motivos
económicos, complejidad de uso y dificultad de mantenimiento,
los computadores habían sido patrimonio de
universidades, organismos militares y gubernamentales, y grandes
empresas.
En 1975, Popular Electronics dedicó su portada al
primer microcomputador del mundo capaz de rivalizar con los
modelos
comerciales, el Altair 8800.
Cuarta Generación (ordenadores personales de
uso doméstico)
El Altair 8800, producido por una compañía
llamada Micro Instrumentation and Telemetry Systems (MITS), se
vendía a 397 dólares, lo que indudablemente
contribuyó a su popularización. No obstante, el
Altair requería elevados conocimientos de
programación, tenía 256 bytes de memoria y empleaba
lenguaje máquina. Dos jóvenes, William Gates y Paul
Allen, ofrecerion al dueño de MITS, un software en BASIC que
podía correr en el Altair. El software fue un éxito
y, posteriormente Allen y Gates crearon Microsoft.
Paralelamente, Steven Wozniak y Steven Jobs,
también a raíz de ver el Altair 8800 en la portada
de Popular Electronics, construyen en 1976, la Apple I. Steven
Jobs con una visión futurista presionó a Wozniak
para tratar de vender el modelo y el 1 de Abril de 1976
nació Apple Computer. En 1977, con el lanzamiento de la
Apple II, el primer computador con gráficos a color y carcasa
de plástico,
la compañia empezó a imponerse en el mercado.
En 1981, IBM estrena una nueva máquina, la IBM
Personal
Computer, protagonista absoluta de una nueva estrategia:
entrar en los hogares. El corazón de
esta pequeña computadora, con 16 Kb de memoria (ampliable
a 256), era un procesador Intel, y su sistema operativo
procedía de una empresa
recién nacida llamada Microsoft.
En 1984, Apple lanza el Macintosh, que disponía
de interfaz gráfico para el usuario y un ratón, que
se hizo muy popular por su facilidad de uso.
Hecho Por:
Juan Fernando Cano Villatoro
Enviado por:
Manuel Pereira Gouveia