- Los comienzos de la
computación - Nacen los
ordenadores - Los pasos de la
computación - El Software
- Unidades de
medición - Conclusiones
Los comienzos de la computación
Aunque la computadora
personal fue
creada en 1981, sus inicios se remontan a varias décadas
atrás y sus antecedentes a hace más de cuatro mil
años.
Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de
los cálculos matemáticos, que con el tiempo
permitió el desarrollo del
sistema
binario, el lenguaje en
que se programan las computadoras,
que está basado en la combinación de números
ceros y unos (0 y 1).
2500 a.C. – El antecedente más remoto
es el ábaco, desarrollado en China. Fue el
primer instrumento utilizado por el hombre para
facilitar sus operaciones de
cálculo.
Ábaco
600 a.C. – El astrónomo,
matemático y filósofo griego Tales de Mileto
describió algunos aspectos de la electricidad
estática. De sus escritos proviene la
palabra electrón, que se usa para designar a las
partículas negativas del átomo.
500 a.C. – Los romanos usaron ábacos con
piedrecitas, a las que llamaban cálculos, que eran
desplazadas sobre una tabla con canales cifrados con sus
números (I, V, X, L, C, D, M).
1633 – El inglés
William Oughtred creó un instrumento que hoy se
conoce como regla de cálculo, utilizado hasta hace
unos años por los ingenieros.
William Oughtred
1642 – El francés Blaise
Pascal (1623-1662) inventó y construyó la
primera sumadora mecánica. La pascalina
hacía sumas y restas.
Blaise Pascal
La pascalina
Funcionaba gracias a una serie de ruedas contadoras con
diez dientes numerados del 0 al 9. El padre de Pascal era
recaudador de impuestos,
así que fue el primero en usarla.
Pascalina
1671 – El filósofo y
matemático alemán Gottfried Leibniz
desarrolló una máquina
multiplicadora.
Gottfried Wilhelm
Leibniz
1833 – El profesor de matemáticas de la Universidad de
Cambridge Charles Babbage (1792-1871) ideó la
primera máquina procesadora de información. Algo así como la
primera computadora
mecánica programable. Pese a que
dedicó casi cuarenta años a su construcción, murió sin terminar su
proyecto.
Charles Babbage
Babbage usaba cartones perforados para suministrarle
datos a su
máquina -había copiado la idea del telar del
francés Joseph Marie Jacquard, inventado en 1801-, que se
convertirían en instrucciones memorizadas; algo así
como los primeros programas.
Esperaba lograr imprimir la información registrada,
obtener resultados y volver a ingresarlos para que la
máquina los evaluara y dedujera qué se debía
hacer después.
La evaluación
y la retroalimentación se convertirían en
la base de la cibernética, que nacería un
siglo más tarde.
1847 – El británico George Boole
desarrolló un nuevo tipo de álgebra
(álgebra de Boole) e inició los estudios de
lógica
simbólica. En 1847 publicó "El análisis matemático del pensamiento" y
en 1854 "Las leyes del
pensamiento".
George Boole
Su álgebra era un método
para resolver problemas de
lógica por medio de los valores
binarios (1 y 0) y tres operadores: and (y), or (o) y not (no).
Por medio del álgebra binaria, posteriormente se
desarrolló lo que hoy se conoce como código
binario, que es el lenguaje
utilizado por todas las computadoras.
1890 – Los cartones perforados y un primitivo
aparato eléctrico se usaron para clasificar por sexo, edad y
origen a la población de Estados Unidos.
Esta máquina del censo fue facilitada por el
ingeniero Herman Hollerith, cuya compañía
posteriormente se fusionó (1924) con una pequeña
empresa de
Nueva York, creando la International Business Machines (IBM),
empresa que un siglo más tarde revolucionó el
mercado con las
computadoras personales o PC.
Herman Hollerith
1889 – Solo a fines del siglo XIX se
inventó una máquina calculadora que
incorporó las cuatro operaciones básicas (suma,
resta, multiplicación y división) y que lentamente
se empezó a producir de manera más masiva. Esta
máquina solo podía realizar una operación a
la vez y no tenía memoria.
1893 – Entre 1893 y 1920, Leonardo Torres y
Quevedo creó en España
varias máquinas
capaces de resolver operaciones algebraicas. Posteriormente
construyó la primera máquina capaz de jugar
ajedrez.
1920 – Se presentó en París el
"aritmómetro electromecánico", que consistía
en una calculadora conectada a una máquina de escribir, en
la que se tecleaban los números y las operaciones. Una vez
hecho el cálculo, la máquina entregaba
automáticamente el resultado. Este aparato fue la primera
versión de una calculadora digital.
1934-1939 – Konrad Suze construyó
en Alemania dos
máquinas electromecánicas de cálculo
que se acercaban bastante a lo que sería la primera
computadora.
La Z1 tenía un teclado y
algunas lámparas que indicaban valores
binarios. La Z2 fue una versión mejorada que utilizaba
electromagnetismo.
Konrad Suze
1937 – Claude Shannon
demostró que la programación de las futuras computadoras
era más un problema de lógica que de
aritmética, reconociendo la importancia del álgebra
de Boole.
Además, sugirió que podían usarse
sistemas de conmutación como en las centrales
telefónicas, idea que sería fundamental para la
construcción de la primera computadora.
Claude Shannon.
Más adelante, junto con Warren Weaver, Shannon
desarrolló la teoría
matemática
de la comunicación, hoy más conocida como la
"teoría de la información", estableciendo los
conceptos de negentropía, que se refiere a que la
información reduce el desorden, y la unidad de medida del
bit -en dígitos binarios- utilizada actualmente
tanto en las telecomunicaciones como en la
informática.
1939 – En Estados Unidos, George Stibitz y
S.B. Williams, de los laboratorios Bell, construyeron una
calculadora de secuencia automática que utilizaba
interruptores ordinarios de sistemas de
conmutación telefónica.
Nacen los ordenadores
En 1941, Konrad Suze presentó la
Z3, la primera computadora electromagnética
programable mediante una cinta perforada.
Tenía dos mil electroimanes, una memoria de 64
palabras de 22 bits, pesaba mil kilos y consumía cuatro
mil watts.
Una adición demoraba 0,7 segundos, mientras que
en una multiplicación o división tardaba 3
segundos.
1943 – Un equipo de expertos del ejército
británico dirigido por Alan Turing construyó
a Colossus, una computadora que permitía descifrar
en pocos segundos y automáticamente los mensajes secretos
de los nazis durante la Segunda Guerra
Mundial, cifrados por la máquina
Enigma.
1944 – En 1939, Howard Aiken (1900-1973),
graduado de física de la
Universidad de Harvard, logró un convenio entre dicha
universidad e IBM, por el que un grupo de
graduados inició el diseño
y la construcción de la primera computadora
americana, del tipo electromecánico -basado en
electroimanes-.
Howard Aiken
El Mark I comenzó a funcionar en 1944.
Recibía y entregaba información en cintas
perforadas, se demoraba un segundo en realizar diez operaciones.
Medía 18 metros de longitud y 2,5 metros de
alto.
Posteriormente se construyeron Mark II y Mark
III.
1947 – Pese a que Harvard e IBM construyeron la
primera computadora, la tecnología era
más avanzada en otras universidades.
Los ingenieros John Presper Eckert y John W. Mauchly, de
la Universidad de Pennsylvania, desarrollaron para el
ejército estadounidense, en el laboratorio de
investigaciones balísticas de Aberdeen, el
ENIAC (Electronic Numerical Integrator And
Calculator).
Tenía treinta metros de largo, tres de alto, uno
de ancho, pesaba treinta toneladas y tenía 800
kilómetros de cableado. Consumía la misma
electricidad que mil lavadoras juntas y realizaba cien mil
operaciones por segundo. Era capaz de calcular con gran velocidad las
trayectorias de proyectiles, que era el objetivo
inicial de su construcción.
ENIAC es considerada la primera
computadora, ya que su funcionamiento era completamente
electrónico, tenía 17.468 válvulas o
tubos (más resistencias,
condensadores,
etc.). Sin embargo, el calor de estas
elevaba la temperatura
local hasta los 50 grados, por lo que para efectuar diferentes
operaciones debían cambiarse las conexiones, lo cual
podía tomar varios días.
1949 – El matemático húngaro
John Von Neumann resolvió el problema de tener que
cablear la máquina para cada tarea.
La solución fue poner las instrucciones en la
misma memoria que los datos, escribiéndolas de la misma
forma, en código binario.
John Von Neumann
Refiriéndose a esta innovación, se habla de la "arquitectura de
Von Neumann". Su EDVAC fue el modelo de las
computadoras de este tipo.
1951 – La primera computadora comercial fue la
UNIVAC 1, fabricada por la Sperry-Rand Corporation y
comprada por la Oficina del Censo
de Estados Unidos.
Disponía de mil palabras de memoria central y
podía leer cintas magnéticas.
Por su parte, la IBM desarrolló la IBM
701, de la que se entregaron dieciocho unidades entre 1953 y
1957. La compañía Remington Rand fabricó el
modelo 1103, que competía con la 701. Así,
lentamente, fueron apareciendo nuevos modelos.
1955 – En Bell Labs se inició la
construcción de computadoras sin válvulas, las que
fueron reemplazadas por transistores. Esto permitió
achicar en decenas de veces el tamaño de estas
máquinas y aumentar su velocidad de operación.
Además la refrigeración, debido al alza de la
temperatura, ya no era necesaria.
Los transistores
habían sido inventados en 1947 por los científicos
de esta misma compañía: Bardeen, Brattain y
Shockley. Se trataba de un semiconductor de tamaño
reducido capaz de realizar funciones de
bloqueo o amplificación de señal. Eran más
pequeños, más baratos y mucho menos calientes que
las válvulas de vacío.
1957 – Un equipo de IBM, dirigido por John
Backus, creó el primer lenguaje de
programación, llamado Fortran, formulado para
el IBM 704.
60’s – Técnicos de varios
laboratorios, a partir de la elaboración de los
transistores, comenzaron a producir unidades más grandes
con múltiples componentes que cumplían diversas
funciones electrónicas.
Se trataba de los circuitos integrados o
chips.
Estos permitieron una nueva disminución en el
tamaño y el costo.
1969 – Kenneth Thompson y Dennis Ritchie, de Bell
Labs, desarrollaron el sistema operativo Unix.
1971 – La compañía Intel
lanzó el primer microprocesador, el Intel 4004, un
pequeño chip de silicio.
Se trató de un circuito integrado especialmente
construido para efectuar las operaciones básicas de
Babbage y conforme a la arquitectura de Von Neumann.
Fue la primera Unidad Central de Procesos
(CPU). La
integración de estos procesos avanzó
en distintas etapas:
• Integración simple (Integrated Circuits
o IC)
• Alta integración (Large Scale Integration o
LSI)
• Muy alta integración (Very Large Scale Integration
o VLSI)
Estos procesos permitieron acelerar el funcionamiento de
las computadoras, logrando superar el millón de
operaciones por segundo.
1971 – Alan Shugart, de IBM, inventó el
disco flexible o floppy disk, un disquete de 5 1/4
pulgadas.
1974 – Surge el Altair 8800, la primera
computadora de escritorio, comercializada con el microprocesador
Intel 8080.
Aunque no incluía teclado, monitor, ni
software de
aplicación, esta máquina dió inicio a
una revolución en los sistemas computacionales
modernos.
1975 – Steve Jobs -que trabajaba en Atari-
y Steven Wozniak -ingeniero de Hewlett Packard- se
juntaron para armar una microcomputadora que pudiera ser
usada más masivamente.
Wozniak diseñó una placa
única capaz de soportar todos los componentes
esenciales y desarrolló el lenguaje de programación
Basic.
El resultado fue la primera computadora
Apple.
Steve Jobs y Steven Wozniak, crearon la primera
computadora Apple.
Steve Jobs, y la primera computadora
Apple
A fines de 1976 tenían el modelo listo para ser
comercializado: el Apple II. Tras varios intentos, finalmente
consiguieron el apoyo de Mike Markulla, con quien formaron su
propia compañía, la Apple Computers. El Apple II
siguió fabricándose por otros quince años,
todo un récor para una industria que
continuamente presenta novedades.
1975 Bill Gates y Paul Allen se unen para crear
Microsoft,
una empresa
dedicada integramente al "software"
Los 80´s, computadoras para
todos
Tras el éxito
de la microcomputadora, en 1981 IBM lanzó al
mercado el IBM PC, diseñado por doce ingenieros dirigidos
por William C. Lowe.
Su principal característica es que tenía una
estructura
abierta; es decir, que era capaz de integrar componentes de otros
fabricantes.
De hecho, su sistema
operativo, el DOS 1.0, era de Microsoft, y el
microprocesador, un Intel 8088.
En cinco años se vendieron más de tres
millones de unidades.
Aunque el término personal computer
(PC) se popularizó con esta invención de IBM, los
primeros aparatos de este tipo habían sido comercializados
desde 1977 por la Tandy Corporation, que le incorporó
teclado y monitor, ya que el primer modelo de computadoras de
escritorio, el Altair 8800 de 1974, no los
tenía.
En 1980, antes del lanzamiento de IBM, las
revolucionarias empresas del
Silicon Valley o Valle del Silicio -recibió ese nombre
porque en él se establecieron solo empresas
tecnológicas- como Apple, Tandy, Osborne y Commodore, ya
habían vendido 327 mil unidades.
En 1984, la compañía Apple
presentó una nueva computadora, la Macintosh,
sucesora de un modelo denominado Lisa.
Entre sus novedades estaba la incorporación de
una herramienta nueva para controlar la computadora, el
mouse o ratón.
El modelo no tuvo gran aceptación, debido a su
alto costo.
En 1985, Microsoft -compañía
fundada por Bill Gates y
Paul Allen en 1975- presentó el software Windows
1.1
Ese mismo año aparecen los primeros CD-ROM para
computadoras.
Bill Gates
Las computadoras personales surgieron gracias a la Muy
Alta Integración de sus procesos (VLSI) desarrollada
durante los ochentas, y que permitió concentrar miles de
componentes electrónicos en una plaquita de silicio (el
chip) de alrededor de un centímetro cuadrado.
Esto ha permitido reducir los tamaños de estas
máquinas hasta hacerlas portátiles (Notebooks) y
ampliar su velocidad por sobre el billón de operaciones
por segundo, como es el caso de los supercomputadoras.
Los 90´s – Nuevas
tecnologías
Durante los noventa comenzó a masificarse el uso
de las computadoras, al disminuir su tamaño y
también su costo, debido a la producción en serie y a la competencia entre
las fabricantes IBM, Apple y Microsoft.
Primero se multiplicaron en las empresas y luego fueron
apareciendo cada vez en más hogares.
Este modelo Macintosh es la
versión actual de computadora portatil de la
compañía Apple.
Para entender mejor el proceso que
marcó el despegue de la informática, repasemos
revisando las distintas generaciones de
computadoras. Aunque sus inicios, términos y los hitos
que las determinan difieren entre los distintos autores, estas
tienen que ver básicamente con el desarrollo
científico relacionado a la forma en la que eran
construidos y la manera en la que el hombre
ingresaba la información que debían procesar y
analizar.
• Primera Generación:
Eran las primeras máquinas electrónicas,
enormes y sumamente caras.
Estaban formadas por válvulas o tubos al
vacío muy similares a las ampolletas. La unidad de entrada
utilizaba tarjetas
perforadas.
La computadora más exitosa de esta
generación fue la IBM 650, de la cual se produjeron varios
centenares.
• Segunda Generación:
Comienza en 1958, cuando se sustituyeron los tubos de
vacío por transistores y se empiezan a usar las memorias de
núcleos magnéticos o ferritas.
Eran más pequeños que los de primera
generación, aunque con una mayor capacidad de
procesamiento.
Se programaban en nuevos lenguajes, llamados de alto
nivel, con cintas perforadas o cableado proveniente de un
tablero.
La programación era a la medida de cada
computadora.
• Tercera Generación:
A partir de 1965 se incorporan los circuitos
integrados o chips, que son microcircuitos capaces de
realizar las mismas funciones que cientos de
transistores.
Eran computadoras de tamaño mediano y más
baratas.
Se manejaban mediante los lenguajes de control de los
sistemas
operativos.
• Cuarta Generación:
En los setentas aparecieron los microprocesadores, circuitos
integrados de alta densidad con una
gran velocidad.
Los microcomputadoras eran muchísimo más
pequeñas y baratas, por lo que su uso se extendió
al sector industrial.
Es la época del nacimiento de las computadoras
personales o PC.
• Quinta Generación:
Tiene que ver con el desarrollo de los softwares
-programas instalables que le indican a la computadora
cómo hacer una serie de funciones- y el perfeccionamiento
de los sistemas
operativos -que supervisan y controlan las operaciones y los
dispositivos físicos de las computadoras-, que se
inició a mediados de los ochentas.
El objetivo era lograr que el usuario se relacionara con
estas máquinas en un lenguaje más cotidiano y no a
través de códigos o lenguajes de control demasiado
especializados.
Más fácil y más barato debido a la
producción en serie.
¿Cómo funcionan hoy?
Las computadoras actuales no tienen en su interior
mecanismos o ruedas con dientes, sino un laberinto de
microscópicos transistores que reaccionan ante los
impulsos eléctricos que pasan por sus circuitos y que
tienen solo dos posiciones, que corresponden a las cifras
empleadas por el sistema binario,
ceros y unos.
Las palm son verdaderos |
Si bien las instrucciones en las primeras
máquinas debían ser ingresadas en ceros y unos, las
computadoras actuales son capaces de transformar las palabras,
números e instrucciones que ingresamos a bits
-dígitos binarios-. Así, cada computadora debe
traducir uno o más lenguajes en código binario para
poder
funcionar.
Los programas o softwares son el conjunto de
instrucciones que le dicen a la computadora qué debe
hacer. Sin ellos, la computadora es una máquina
inútil. Hay diferentes clases de programas. Las dos
principales categorías son los sistemas operativos y el
software aplicativo o aplicaciones.
El sistema operativo es el programa
más importante, porque controla el funcionamiento de la
computadora y el de los demás programas.
Las aplicaciones son todos los programas que permiten
al usuario realizar tareas: procesadores de
palabras para escribir, juegos para
divertirse, hojas de
cálculo para trabajo financiero, browsers para navegar
por la red,
etc.
El sistema operativo establece las reglas y
parámetros para que el software aplicativo
interactúe con la computadora, ya que en lugar de hablar
directamente con el hardware (elementos
físicos que componen la computadora), las aplicaciones
hablan con el sistema operativo y este actúa como su
intérprete. Si no existiera el sistema operativo, cada
empresa desarrolladora de softwares tendría que crear su
propio método para que las aplicaciones graben archivos en el
disco duro,
desplegar textos y gráficos en la pantalla, enviar texto a la
impresora e
infinidad de funciones más.
Los sistemas operativos se diseñan para que
funcionen sobre una familia
particular de computadoras.
Por ejemplo, los sistemas operativos MS DOS y
Windows trabajan en PC basadas en procesadores de Intel o
Athlon.
El sistema operativo Macintosh corre solo en PC
Macintosh, los cuales usan procesadores Power PC (anteriormente
usaban Motorola 680×0).
Estos sistemas no son compatibles entre
sí.
Las aplicaciones deben corresponder al sistema operativo
instalado para poder funcionar.
Notebook
Los sistemas operativos y las aplicaciones son los
principales programas, pero no son los únicos.
Existe otra categoría importante, el lenguaje
de programación, que es el software que se usa para
escribir los programas en el lenguaje de la máquina, el
único que el procesador de la
computadora entiende, el código binario.
Las PC tienen cuatro elementos
básicos:
El teclado, para introducir la
información; la memoria, que almacena la
información y el programa; la unidad de proceso
(CPU), que lleva a cabo las instrucciones contenidas en el
programa; y una pantalla para ver los resultados del
trabajo realizado.
Los programas se instalan mediante compac disc o
cd, y en el
caso de las computadoras menos modernas, por medio de
disquetes.
Los datos pueden introducirse de la misma manera o bien
a través del teclado o algúna otra vía, como
son los archivos que llegan a través del correo
electrónico o la información que se pueda
obtener desde Internet.
Los resultados de estos procesos de ejecución y
análisis de los datos se pueden observar en la pantalla
-en forma de palabras, números e imágenes-,
impresos en papel o como
sonidos emitidos por un altavoz, y pueden almacenarse en el disco
duro, disquetes o cd’s.
Las computadoras están integradas por una serie
de componentes electrónicos que son los responsables de su
correcto funcionamiento.
Entre ellos destacan:
• Unidad central de procesos
(CPU):
Es el cerebro de la
PC.
Se encarga de procesar las instrucciones y los datos con
los que trabaja la computadora.
El procesador es el dispositivo más importante y
el que más influye en su velocidad al analizar
información.
• Memoria RAM o memoria
principal:
Es la memoria de
acceso aleatorio, en la que se guardan instrucciones y datos de
los programas para que la CPU puede acceder a ellos directamente
a través del bus de datos externo de alta
velocidad.
A la RAM se le conoce como memoria de lectura/escritura,
para diferenciarla de la ROM.
Es decir que en la RAM, la CPU puede escribir y
leer.
Por esto, la mayoría de los programas destinan
parte de la RAM como espacio temporal para guardar datos, lo que
permite reescribir.
Como no retiene su contenido, al apagar la computadora
es importante guardar la información.
La cantidad de memoria RAM
influye bastante en la velocidad de la PC.
Entre más memoria RAM tenga, más
rápido trabaja y más programas puede tener abiertos
al mismo tiempo.
• Memoria ROM:
Es la memoria solo para lectura.
Es la parte del almacenamiento
principal de la computadora que no pierde su contenido cuando se
interrumpe la energía.
Contiene programas esenciales del sistema que ni la
computadora ni el usuario pueden borrar, como los que le permiten
iniciar el funcionamiento cada vez que se enciende la
computadora.
• Disco duro:
Es el dispositivo de almacenamiento secundario que
usa varios discos rígidos cubiertos de un material
magnéticamente sensible.
Está alojado, junto con las cabezas de lectura,
en un mecanismo sellado en forma hermética, en el que se
guardan los programas y todos los archivos creados por el usuario
cuando trabaja con esos programas.
Entre más capacidad tenga un disco duro,
más información y programas puede almacenar en el
PC.
La capacidad del disco duro, actualmente se mide en
gigabytes (GB).
Un GB equivale a 1.024 megabytes (MB)
aproximadamente.
En el disco duro quedan guardados,
entre otras cosas, todos los archivos creados por el
usuario.
Bit:
Es la abreviación de dígito binario (0
ó 1), la parte más pequeña de
información que puede haber en una computadora.
Se trata de dos posiciones: el uno implica que
está encendido y el 0 que está apagado.
Byte:
Es la unidad de información fundamental de las
computadoras y corresponden a ocho bits continuos.
Representa un caracter de datos o
instrucción.
- Kilobyte (Kb): corresponde a alrededor de mil
bytes (1024 bytes).
Megabyte (Mb): indica mil kilobytes, es decir alrededor
de un millón de bytes.
Gigabyte (Gb): señala mil megabytes o unos mil
millones de bytes.
Terabyte (Tb): equivale a mil gigas o a algo más
de un billón de bytes.
• Caché:
Es una unidad pequeña de memoria
ultrarrápida en la que se almacena información a la
que se ha accedido recientemente o a la que se accede con
frecuencia, lo que evita que el microprocesador tenga que
recuperar esta información de circuitos de memoria
más lentos.
El caché suele estar ubicado en la tarjeta madre
(Motherboard), pero a veces está integrado en el
módulo del procesador.
Su capacidad de almacenamiento de datos se mide en
kilobytes (KB). Mientras más caché tenga la
computadora es mejor, porque tendrá más
instrucciones y datos disponibles en una memoria más
veloz.
• Tarjeta madre (Motherboard):
Es la tarjeta de circuitos que contiene el procesador o
CPU, la memoria RAM, los chips de apoyo al microprocesador y las
ranuras de expansión.
Estas son las que permiten insertar, por ejemplo, la
tarjeta de sonido (que
permite al PC reproducir sonido), el módem interno (que
hace posible navegar por Internet) o la tarjeta gráfica o
de video (que
permite mostrar imágenes en la pantalla).
• CD-ROM:
Esta unidad sirve para leer los discos compactos (CD),
sean estos programas, música o material
multimedia
(sonidos, imágenes, textos), como las enciclopedias y los
juegos electrónicos.
La velocidad de esta unidad depende de dos factores: la
tasa de transferencia de datos y el tiempo de
acceso.
La tasa de transferencia de datos se refiere a la
cantidad de datos que la unidad de CD ROM puede
enviar a la PC en un segundo.
Esa tasa se mide en kilobytes por segundo (kbps) y se
indica con un número al lado de un X, por ejemplo: 16X,
24X o 48X. Mientras más X, mayor velocidad.
El tiempo de acceso se refiere a lo que tarda el proceso
completo.
• Unidad de disquete:
Esta unidad lee y escribe en los disquetes.
Estos discos sirven para guardar y leer
información, pero a diferencia del disco duro, que
está fijo dentro de la PC, se pueden introducir y sacar de
la unidad, por lo que permiten transportar datos de un lado a
otro.
Los disquetes tienen una capacidad de almacenamiento de
datos muy baja: 1.4 megabytes (MB).
¿Que son las Supercomputadoras?
Estas computadoras son los más desarrolladas y
están destinadas a efectuar cálculos complicados a
gran velocidad, por lo que son utilizadas en las áreas
científicas y de la ingeniería.
Son tan grandes o incluso de mayor tamaño que las
primeras computadoras, pero su capacidad es claramente superior:
realizan billones de operaciones por segundo.
Son utilizadas para proyectar autos, aviones
y complejas armas, controlar
el funcionamiento de naves espaciales, satélites
y centrales nucleares y para realizar complejas predicciones
meteorológicas o astronómicas, entre otras
cosas.
Una de las supercomputadoras más famosas es
Deep Blue (Azul Profundo), de IBM, que en 1997
derrotó al campeón mundial de ajedrez Gary
Kasparov.
Deep Blue
En muchos hogares el poseer una computadora es casi tan
normal como tener un televisor.
Hasta los más pequeños saben de qué
se trata.
De hecho hay softwares (programas) con juegos
didácticos para los niños
en edad pre-escolar.
El resto de la familia lo
usa para redactar sus informes,
revisar enciclopedias digitales, escuchar música, jugar o
conectarse a Internet.
El correo electrónico, los "chat" -foros
de conversación instantáneos a través de la
red- y hasta las videoconferencias se han convertido en eventos
cotidianos.
Las computadoras u ordenadores, formados por miles de
pequeñísimos circuitos electrónicos, no
piensan como un ser humano, pero funcionan como un cerebro
electrónico dotado de una gran capacidad de trabajo, que
les permite interpretar y analizar de manera muy rápida la
información que reciben.
Estas máquinas casi no tienen límites,
podemos escribir, dibujar, construir gráficos o tablas de
datos, retocar imágenes, calcular, jugar, escuchar
música o disfrutar de material multimedia (sonido, texto e
imágenes fijas o en movimiento al
mismo tiempo), guardar la información que nos interesa,
generarla e incluso imprimirla.
Todo esto se logra mediante la combinación de
softwares o programas, que son los que dan a la computadora las
instrucciones para trabajar, y el hardware, conformado por los
elementos materiales
componentes electrónicos, tarjetas, periféricos y el equipo- que permiten la
instalación de los programas.
Su gran memoria puede almacenar miles de datos y
realizar varias operaciones simultáneas.
Hoy, la misma capacidad de la primera computadora
electrónica, Eniac, fabricada en 1947 en Estados
Unidos y que pesaba treinta toneladas, está contenida en
pequeños circuitos integrados llamados chips, montados en
una estructura tan grande como un insecto, el
microprocesador.
Las computadoras ayudan al hombre en casi todas las
áreas, desde las más técnicas a
las más creativas, como son la contabilidad y
el diseño
gráfico.
Incluso hay muchos trabajos manuales que se
han automatizado y ahora son realizados por computadoras o, mejor
dicho, por robots dirigidos por estas.
Un ejemplo clásico es el armado en serie de
vehículos.
A lo largo de una cadena de producción, varios
robots programados para tareas específicas van ensamblando
de manera continuada las distintas partes de cada
auto.
Aunque estamos acostumbrados a que las computadoras
tengan pantalla y teclado, no siempre es así.
Gracias a los microprocesadores es posible
controlar el correcto funcionamiento de casi todas las
máquinas o aparatos fabricados por el hombre.
Estos microprocesadores están presentes en los
paneles de control de los aviones, los cajeros
automáticos, en un reloj digital, en los autos, en las
máquinas fotográficas y de video, en los robots, la
tecnología médica, en los sensores de
fenómenos físicos como la temperatura, clima, erupciones
volcánicas, vientos y temblores y en los sistemas
automáticos que controlan la temperatura de las
habitaciones, entre otros.
Hay computadoras que pueden reconocer la voz de alguien,
otras que permiten esquivar obstáculos hasta llegar a un
objetivo, como ocurre con los misiles inteligentes, e incluso
algunos que permiten simular situaciones con gran realismo, como
las experiencias de realidad
virtual o los simuladores de vuelo.
Además, enlazadas por medio de redes de comunicación internas o intranets como
así también, a través de internet, las
computadoras permiten mantener interconectadas a las distintas
filiales y empleados de una empresa, al sistema
financiero, las entidades de seguridad
pública o a cualquier sistema que requiera mantener
información actualizada minuto a minuto.
Por ejemplo, los medios de
comunicación dependen en gran medida de las agencias
de noticias, sobre todo cuando se trata de hechos sucedidos fuera
del país, que por su lejanía son más
difíciles o lentos de conocer.
Podemos decir entonces que las computadoras, en cierta
forma se han vuelto un equipo, del cual no podríamos al
menos dejar de conocer su funcionalidad.
¿Podríamos prescindir de las
computadoras?
Contestemos esta pregunta con otra:
¿Qué haríamos sin
computadoras?
ZAMBORLINI MARIANO