- Hipótesis
- Inteligencia
artificial - Yo Robot: análisis de los
capítulos y de las problemáticas planteadas por
el autor - Comparación con el
comportamiento humano - Conclusiones
- Bibliografía
En el presente trabajo se
hablará del libro Yo
Robot, más específicamente se tratará el
abordaje del autor, Isaac Asimov,
del controvertido tópico de la inteligencia artificial en
esa obra. Para poder realizar
ese análisis, se limitará el tema
aún más, estableciendo la relación que
tienen los robots con la inteligencia humana, y los conflictos que
presenta la inteligencia artificial
Este tema atrajo mi interés ya
que, a mi parecer, los relatos de este libro de Asimov bien
podrían adquirirtomar protagonismo en este siglo. Y es por
esto que considero importante darle espacio a este tema, y poder
llegar a establecer una comparación entre el ser humano y
el robot inteligente.
Es relevante incluir la biografía del autor
para interiorizarse con su vida, sus estudios y su
obra:
Asimov fue un prolífico escritor estadounidense,
famoso por sus novelas de
ciencia-ficción y por sus libros
divulgativos sobre todas las ramas de la ciencia.
Nació en Petrovichi, Rusia. Su
familia
emigró a Estados Unidos
cuando tenía tres años y se estableció en el
barrio de Brooklyn, de Nueva York.
Sus trabajos en las revistas de ciencia-ficción
le llevaron a profesionalizarse como escritor literario y
científico. Ingresó en la Universidad de
Columbia a los 15 años y a los 18 vendió su primer
relato a la revista
Amazing Stories. Después de participar en la II
Guerra
Mundial, Asimov se doctoró en Bioquímica
en 1948 y de 1949 a 1958 enseñó bioquímica
en la universidad de medicina de
Boston. Su primera novela de
ciencia-ficción, Piedra en el cielo, se
publicó en 1950 y su primer libro científico, un
texto sobre
bioquímica escrito con dos colegas, en 1953.
A partir de 1958 se dedicó por completo a
escribir. Firmó más de 500 libros para lectores
jóvenes y adultos que, además de la
ciencia-ficción y la divulgación científica,
abarcan cuentos de
misterio, humor, historia y varios
volúmenes sobre la Biblia y Shakespeare.
Entre sus obras de ciencia-ficción más
conocidas se encuentran Yo, Robot (1950); La
trilogía de la Fundación (1951-1953), de la
cual escribió una continuación treinta años
después, El límite de la Fundación
(1982); El sol desnudo (1957) y Los propios dioses
(1972). Entre sus obras científicas destacan
Enciclopedia biográfica de la ciencia y la
tecnología (1964; revisada en 1982) y Nueva
guía a la ciencia (1984), una versión
más reciente de su elogiada Guía
científica del hombre (1960). Obras posteriores son
La Fundación y la Tierra (1986), Preludio a la
Fundación (1988) y Más allá de la
Fundación (1992). En 1979 se publicó su
autobiografía en dos volúmenes, Recuerdos
todavía verdes.
Para hacer este trabajo, se tuvo a disposición
todas las semanas a dos profesores que nos guiaban en el trabajo, a
quienes se les suministraban partes del mismo a lo largo del
año. Para recopilar la información, se debieron hacer cinco (5)
visitas a la Biblioteca
Nacional y una (1) a la Biblioteca Leopoldo Lugones. De
allí se extrajo la bibliografía a utilizar, y
se fue moldeando el trabajo a medida que avanzaba la investigación. De más esta decir que
se contaba con el libro Yo Robot de Isaac Asimov para
realizar el escrito
Las preguntas que sirvieron de impulsoras para realizar
este trabajo fueron: ¿Qué es la inteligencia
artificial? ¿Está regida por reglas? ¿Estas
reglas son comparables con los códigos morales de los
seres humanos? ¿Tienen los robots la capacidad de violar
estas reglas? ¿Se puede considerar la inteligencia
artificial idéntica a la inteligencia humana? Si no se
pudiese, ¿cuál sería el punto de
diferenciación? ¿Puede inducir un robot?
¿Puede perfeccionarse así como lo hace el ser
humano?
Las expectativas de este trabajo son determinar, a
partir de la mirada de Isaac Asimov, si la inteligencia
artificial es comparable con la del ser humano, y establecer sus
diferencias y similitudes.
En el trabajo se podrá encontrar en primer lugar,
la hipótesis; luego, una breve introducción al tema de la inteligencia
artificial; más adelante, se analiza el texto en
cuestión; se establece la comparación entre humanos
y robots; y, por último, se encuentran las
conclusiones.
El objetivo del
trabajo es determinar si la inteligencia artificial es comparable
con la inteligencia humana, señalando sus diferencias y
similitudes.
La hipótesis es que
la inteligencia artificial está íntimamente
relacionada con la inteligencia humana. Esto se demostrará
principalmente con las definiciones de las mismas, y se
verá más claramente la relación en el
análisis del texto.
Primeramente debemos definir qué es la
inteligencia. Es una facultad propia de ciertas clases de seres
vivos, que les permite pensar, obrar a voluntad, ser concientes
de su existencia, establecer relaciones con el mundo exterior,
aprender, ser originales, adaptarse, razonar, autocorregirse, y
atender sus necesidades.
Luego, la inteligencia artificial es, justamente, la
capacidad de un artefacto (creado por humanos) de realizar los
mismos tipos de funciones que
caracterizan a la inteligencia humana, nombrados anteriormente.
La inteligencia artificial es un campo muy amplio, pero su
desarrollo se
enfoca principalmente en hacer que las máquinas y
robots se parezcan cada vez más a los humanos, tanto en la
forma de pensar, como en la forma de actuar. Según Jean
Paul y Marie Christine Haton,
"(…) Como la noción de inteligencia
artificial es en sí misma compleja y relativa, no es
fácil definir la disciplina
científica que es la IA.
La IA puede ser abordada desde dos puntos de vista
complementarios:
- El primero concierne al estudio de los mecanismos
de la inteligencia [humana] (…); este punto de vista
implica una perspectiva cognitiva; - el segundo, más pragmático, concierne
a los esfuerzos realizados para dotar a la
computadora de las capacidades que habitualmente se
atribuyen a la inteligencia humana. (…)
Los dos enfoques precedentes son de hecho ampliamente
complementarios, en la medida en que un mejor conocimiento
de los mecanismos humanos permite mejorar el rendimiento de los
sistemas
informáticos."
Finalmente, muchos de los investigadores sostienen que
la inteligencia es un programa capaz de
ser ejecutado independientemente de la máquina que lo
haga, sea una computadora o
un cerebro
humano.
La posibilidad de desarrollar un artefacto inteligente
despertó la curiosidad del ser humano desde la
antigüedad, pero fue recién en la segunda mitad del
siglo XX, más específicamente en 1950, cuando Alan
Mathison Turing introdujo el denominado "Test de Turing"
en un artículo para la revista Mind titulado
"Computing Machinery and Intelligence" ("Ordenador e
inteligencia"), en el que reflexionaba sobre el concepto de
Inteligencia Artificial, materializando la posibilidad en
herramientas
tangibles. El argumento en el que se basa esta prueba es que si
una máquina se comporta en todos los aspectos como
inteligente, entonces debe ser inteligente.
En este test, la máquina debe hacerse pasar por
humana en una conversación con un hombre a
través de una comunicación de texto estilo chat. El
sujeto no sabe si está hablando con una máquina o
no. Si éste es incapaz de deducir por su
conversación que su interlocutor es una máquina,
entonces ésta es inteligente, ya que logra hacerse pasar
por un humano en una comunicación de texto. Se lo
considera por esta prueba el padre de la Inteligencia Artificial,
ya que permite comprobar si una computadora puede ser igual de
inteligente que un ser humano.
Sin embargo, la historia oficial de la Inteligencia
Artificial comienza en 1956, año en el que se inventa el
término en un congreso del Instituto de Tecnología de
Massachussets. En ese mismo año, en una conferencia en
Hanover, Estados Unidos, se establecen las bases de la
Inteligencia Artificial como un campo independiente dentro de la
informática, entre personajes importantes
de ese campo como John McCarthy y Marvin Minsky, entre
otros.
Actualmente, la inteligencia artificial se aplicó
a sistemas y programas
informáticos capaces de realizar tareas complejas,
simulando el pensamiento
humano. Es utilizada en una amplia gama de actividades, tales
como Data Mining (minería de
datos),
videojuegos,
procesamiento de la información, diagnóstico médico y robótica, entre otras.
Un claro ejemplo de la aplicación de la
Inteligencia Artificial es la supercomputadora "Deep Blue" de
IBM, que le ganó al campeón mundial de ajedrez Gary
Kasparov una partida de ese juego, luego
de haber sido perfeccionada debido a que no lo pudo vencer en un
intento anterior.
Sin embargo, existen muchos escépticos respecto
de la posibilidad del desarrollo de la verdadera IA, que imite
fielmente el pensamiento humano. Basan su escepticismo en el
hecho de que todavía no se conoce completamente el
funcionamiento de la mente humana, y, por lo tanto, que es
imposible imitar algo que no se conoce.
La robótica es la aplicación de la
Inteligencia Artificial que se explayará en este trabajo.
Primero, debemos saber qué es un robot. Para eso, se
citará a Tom Logsdon, de su libro Robots: una
revolución:
"¿Qué es un robot? ¿Y en
qué se diferencia de otras máquinas
automáticas? El término ‘robot’ es
checo, y significa ‘trabajo forzado’. (…) Por
tanto, según la terminología actual
deberíamos clasificarlos como ‘androides’
más que como robots. (…) Cualquier definición
propuesta excluirá ciertas máquinas que se
consideran robots, o incluirá artículos que no
son robots, como los cambiadores de discos automáticos o
las máquinas para poner tapones en las
botellas.
La tercera edición del Webster’s New
International Dictionary, por ejemplo, define a un robot como
‘una máquina con la forma de un ser humano que
ejecuta las funciones mecánicas de un ser humano’.
Sin embargo, los constructores de robots no están
interesados en dar a sus creaciones forma humana. Muchos robots
industriales parecen y actúan más como langostas
borrachas o saltamontes que como seres humanos."
Yo Robot:
análisis de los capítulos y de las
problemáticas planteadas por el autor
En un principio, considero conveniente exponer las
Leyes de la
Robótica, impresas en todos los cerebros
positrónicos de los robots.
"Las Tres Leyes de la
Robótica:
- Un robot no debe dañar a un ser humano o,
por su inacción, dejar que un ser humano sufra
daño. - Un robot debe obedecer las órdenes que le
son dadas por un ser humano, excepto cuando estas
órdenes se oponen a la Primera Ley - Un robot debe proteger su propia existencia hasta
donde esa protección no entre en conflicto
con la Primera o Segunda Ley."
Más adelante se añade una ley que
sería la ley cero:
"Ninguna máquina puede dañar a la
Humanidad; o, por inacción, dejar que la Humanidad sufra
daño"
El libro en sí es una serie de relatos en los que
se desarrolla un problema que está siempre relacionado con
las leyes presentadas por Asimov al comienzo del libro. En cada
uno de ellos aparece un nuevo robot, con un problema distinto,
junto con un grupo de
ingenieros especializados de la United States Robots &
Mechanical Men Inc. que deben resolver esos problemas.
En este trabajo se analizarán los
capítulos singularmente, logrando hacer un estudio que
explique las problemáticas que plantea Asimov en el libro,
y añadir junto a él su resolución (si es que
la tiene).
Asimov plantea, en este capítulo, la idea de que
un robot reemplace a un humano en el rol de niñera, con el
fin de que el niño a ser cuidado no se apegue
sentimentalmente a la persona que
esté a su cargo, y que el robot no le pueda hacer
daño y obedezca las órdenes de su patrón, ya
que debe cumplir a rajatabla las Leyes de la
Robótica.
Lamentablemente, esto no es posible, ya que la
niña se encariña con el robot como si fuese una
persona. El robot cumple su trabajo satisfactoriamente, pero el
lazo se establece de la misma forma que si la niñera fuese
una persona. Por lo tanto, se puede decir que este reemplazo
tiene, tanto una ventaja (que el robot debe obedecer las Leyes de
la Robótica), como una desventaja, que es la
pérdida del empleo de una
persona. En el plano afectivo, uno u otro no hacen
diferencia.
En este episodio, un robot, destinado a trabajar en la
extracción de un mineral tiene un conflicto con las Leyes.
El caso es que este robot en particular era extremadamente caro,
razón por la cual tenía reforzada la Tercera Ley,
la de la Auto-conservación, con el fin de protegerse
más. Al recibir una orden de los humanos, el robot
está obligado a cumplirla siguiendo el dictado de las
Leyes de la Robótica.
Sin embargo, esta orden significa un peligro para el
robot, y como la Tercera Ley estaba reforzada, se establece un
equilibrio
entre los potenciales de las 2 Leyes. La Segunda lo obliga a
avanzar, mientras que la Tercera lo obliga a retroceder.
Consecuentemente, el robot no sabe qué hacer, y se queda
en un estado
comparable al de ebriedad en un ser humano.
Este capítulo presenta a un robot que no obedece
a los ingenieros de la U.S Robots, y muestra a un
robot filósofo, a partir de sus actitudes y
pensamientos. Asimov señala el carácter lógico de los robots, ya
que el robot inventa un sistema
axiomático formal con el cual, partiendo del postulado
(según él irrefutable) de que ningún ser
puede crear un ser más perfecto que él, llega a la
conclusión de que es improbable que los humanos lo hayan
creado.
La deducción se basa en que los humanos
están hechos de un material blando y flojo, carente de
resistencia, y
son alterables por la menor variación en temperatura,
presión
atmosférica, humedad o intensidad de radiación;
mientras que los robots son un producto
acabado que está compuesto de fuerte metal, permanecen
conscientes todo el tiempo, y
pueden soportar fácilmente los más extremos cambios
ambientales.
Por lo tanto, este nuevo robot cuestiona su propia
existencia, por lo que se puede deducir que Asimov asemeja su
inteligencia artificial con la inteligencia humana, ya que los
mismos filósofos se preguntan por esto. Al
manifestar curiosidad por su propia existencia, el robot dice,
luego de reflexionar: "Yo, por mi parte, existo porque pienso".
Aquí Asimov construye un paralelismo con Descartes, lo
que delata el matiz filosófico del
capítulo.
El robot también cuestiona el origen de los
humanos, lo que se ve claramente cuando les dice: "¿De
qué punto de luz dices
que vienes?". Este cuestionamiento del origen de los humanos por
parte del robot se prolonga a lo largo del relato, ya que el
robot es un escéptico, y así como Descartes, dice:
"No acepto nada por autoridad.
Para que no carezca de valor, una
hipótesis debe ser corroborada por la razón, y es
contrario a todos los dictados de la lógica
suponer que vosotros me habéis hecho". Por esto no cree ni
lo que le cuentan los humanos sobre la Tierra, ni
lo que lee en los libros, ya que él ya tiene una Verdad
establecida, y lo que los humanos toman como hechos, él
los toma como hipótesis.
La Verdad que sostiene este robot reside en postulados
establecidos por la suposición y reforzados por la fe, por
lo que ningún argumento puede conmoverla. Y esta Verdad es
que su creador es el Señor, y su teoría
es que el Señor primero creó a los humanos, y luego
los fue remplazando por seres perfeccionados: los
robots.
El problema que genera todo lo anteriormente expuesto es
que las órdenes que le dan al robot los humanos no son
obedecidas, ya que según el robot, él es superior a
ellos. Se refleja la inferioridad que les marca el robot a
los humanos cuando el primero dice: "(…) Powell [uno de
los ingenieros], tú incluso deberías ser
capaz de comprender esto.". Se ve claramente un fallo en las Tres
Leyes de la Robótica que (se supone) son inmanentes a todo
robot.
Finalmente, el problema es resuelto sólo, sin la
intervención de los humanos, ya que en el robot prevalece
la Primera Ley, que lo obliga a proteger a los seres humanos,
aunque él no lo sepa. De este modo, el robot puede cumplir
su trabajo, sin importar lo que él crea, ya que
éste no puede descartar la Primera Ley.
En este capítulo, los ingenieros se encuentran
frente a un robot que tiene un problema de iniciativa personal. Este
robot trabaja muy bien junto con sus subsidiarios (robots
subordinados a él), cuando están siendo vigilados.
En cambio, cuando
no están siendo observados suspenden el trabajo. Los
ingenieros deciden preguntarle al robot en cuestión
qué es lo que sucede, pero éste no sabe responder,
por lo que piensan que tiene amnesia, a lo que uno de ellos dice:
"(…) es inútil tratar de aplicar nombres de
enfermedades a
esto.
Las perturbaciones humanas sólo se aplican a los
robots como románticas analogías. No sirven de nada
en ingeniería robótica".
Al hacerle una serie de exámenes, comprueban que
el robot se encontraba en perfectas condiciones, razón por
la cual deciden instalar "visiplacas" para determinar qué
es lo que le ocurre cuando deja de trabajar. Con lo que observan
que éste comienza a marchar en formación militar,
como si, junto con sus subsidiarios, se hubiera vuelto loco. Al
acercarse uno de los ingenieros, los robots volvieron al trabajo,
y el robot principal no sabe qué
ocurrió.
Las hipótesis de los ingenieros se descartan
fácilmente con las 3 Leyes de la Robótica. Dave no
les puede mentir si ellos le ordenan que diga la verdad; tampoco
puede estar creando un ejército con maniobras militares,
porque el tipo militarista y de carácter dominante debe
tener como punto final la dominación de los humanos, y
esto se opone a las leyes. Por tanto, no queda otra respuesta que
el problema radique en la iniciativa personal del robot,
necesaria para actuar de manera distinta al notar la ausencia de
los humanos.
Tras interrogar a un subsidiario, y comparar opiniones,
los ingenieros llegan a notar que lo que causa que el robot
actúe de forma extraña es el peligro,
perturbándolo y tensionándolo al máximo. En
un momento de vida o muerte, logran
llamar la atención del robot para que los ayude,
derribando a uno de sus subsidiarios. De esta forma, el robot
tiene una responsabilidad menos y se puede controlar,
acudiendo a salvar a los humanos.
En este capítulo se desarrolla un nuevo problema,
que se origina a partir de un nuevo robot que puede leer el
pensamiento. Al ver el pensamiento de los humanos, debía
decirles lo que ellos querían para no dañarlos
mental o sentimentalmente. Esto es una extensión de la
Primera Ley, ya que como puede leer el pensamiento,
también puede dañar a la persona
psicológicamente, no sólo
físicamente.
Es por eso que el robot debe mentir, haciendo luego
daño posterior, y muriendo luego, al volverse loco por no
saber que hacer, ya que si no le decía algo a un ser
humano, dañaba a otro, y si lo decía, le
dañaba el orgullo al primero. Por lo tanto, esta
indecisión lo vuelve loco y lo mata.
El problema en este capitulo es que se perdió un
robot que tenía la primera ley modificada. Este se
escondió entre otros robots del mismo tipo y negaba ser
él, mintiendo. La primera ley de este robot modificado
sólo decía que no debá dañar a un ser
humano directamente, sin molestarse si algo le pasaba. Se
debió modificar porque sino se metían en un campo
gamma moderado para salvar a un ser humano, perdiendo su vida,
pero si les decían que no se metan, lo hacían igual
porque la Primera Ley es más fuerte que la Segunda, y que
la Tercera, por lo que no les importaba si ellos podían
morir. Lo único que los hace esclavos nuestros a los
robots es la Primera Ley, de lo contrario, al darles la primer
orden, nos matarían, por el resentimiento de que alguien
física y
mentalmente inferior a ellos los intente dominar.
Este robot no quería entregarse porque,
subconscientemente, consideraba a los humanos inferiores a
él, e injusta la Primera Ley que los protege. De esta
forma, este robot podría matar a un ser humano dejando
caer un peso, ya que el medio activo que ejecuta al humano
sería la fuerza de
gravedad, y no directamente el robot. Esto se lo permite la
modificación de la Primera Ley.
Al intentar camuflarse entre otros robots, este simula
responder como lo haría un robot normal. Y hete
aquí un punto de diferenciación con los humanos:
las reacciones robóticas son perfectamente análogas
a las humanas; en los seres humanos, la acción
voluntaria es más lenta que el reflejo, no así en
los robots, que pueden elegir como será la
reacción.
Se presenta un problema con una supercomputadora que
debe construir una nave para viajes
interestelares. El quid de la cuestión radica en
que nunca podrá dar una solución a un problema que
le haya sido presentado, si esta solución trae aparejada
la muerte o
daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de
respuesta, sería posible que la supercomputadora se
encontrase ante un dilema según el cual no podría
ni contestar ni negarse a hacerlo.
En este capítulo, se cuestiona la humanidad de
una persona, ya que no se la ve comer, dormir, ni beber. Como es
lógico pensar, esto representa un problema, ya que esta
estrictamente prohibido el empleo de robots en los mundos
habitados. Eso fue el resultado de lo que relata Susan
Calvin:
"(…) Después [los robots] se hicieron
más humanos, y empezó la oposición. Los
sindicatos
obreros, como es natural, se opusieron a la competencia que
hacían los robots al trabajo humano
(…)."
La forma de descubrir la verdad, según ella, es
analizar su conducta, aunque
no daría un resultado 100% confiable, ya que aunque esta
persona respetara todas las Leyes de la Robótica, bien
podría ser un muy buen ciudadano, un ser humano honrado y
decente.
En este capítulo, se llega a una época en
el futuro, en la que la economía
mundial es controlada por Máquinas. Es en este
episodio en el que se demuestra al máximo la ley
zero, que dice que un robot no puede dañar, ni por
su inacción, ver dañar a la Humanidad, razón
por la cual se ocupan íntegramente del futuro de la raza
humana.
Saliendo un poco del tema central de este trabajo, cabe
darle una mirada a la película Yo, Robot basada en
la obra de Asimov, ya que sigue un razonamiento lógico que
demuestra que con la introducción de la ley zero,
las Tres Leyes de la Robótica propuestas por el autor,
pierden el carácter de perfectas, ya que se ven
condicionadas por aquella ley.
Después de todo, la ley zero es el
resultado de la reflexión filosófica de los robots,
como si fuera una evolución en su pensamiento. De este modo,
las primeras leyes enunciadas que, se suponía,
protegían la vida humana, dejan de ser
útiles.
En la película, los robots ven a los mismos
humanos como peligrosos para la perpetuidad de la humanidad, por
lo tanto se rebelan a su comando, ya que no estarían en
conflicto con ninguna ley al hacerle daño a un ser humano
en virtud de la ley zero. Esto lleva a una revolución
de los robots que, en teoría, es para el bien humano.
Nuestra subsistencia estaría garantizada si
obedeciéramos a los robots. Esto suena extraño,
pero en fin, es uno de los objetivos para
el cual fueron creados, para protegernos, así sea
teniéndonos de esclavos.
Comparación
con el comportamiento
humano
Para realizar esta comparación, es apropiado
citar a Asimov a través de su personaje Susan
Calvin:
"(…) si se detiene usted a estudiarlas,
verá que las tres Leyes de la Robótica no son
más que los principios
esenciales de una gran cantidad de sistemas éticos del
mundo. Todo ser humano se supone dotado de un instinto de
conservación. Es la Tercera Ley de la Robótica.
Todo ser humano bueno, con conciencia
social y sentido de la responsabilidad, deberá someterse
a la autoridad constituida, obedecer a su doctor, a su Gobierno, a su
psiquiatra, a su compañero; aunque sean un
obstáculo a su comodidad y seguridad.
Es la Segunda Ley de la Robótica. Todo ser humano
bueno debe, además, amar a su prójimo como
a sí mismo, arriesgar su vida para salvar a los
demás. Ésta es la Primera Ley de la
Robótica."
Asimov sostiene que el robot es como un hombre ideal, y
que si este existiese, se podría confundir
fácilmente con uno de sus robots. Asimismo, como se vio a
lo largo del análisis del libro, muchas de las conductas y
problemas de los robots son, sino idénticos, muy parecidos
a aquellos de los humanos.
Por lo tanto, constituiría un gran bien crear un
robot capaz de ser funcionario civil, ya que las Leyes de la
Robótica le impedirían dañar a un ser
humano, lo incapacitarían para la tiranía, la
corrupción, el prejuicio. Y
una vez que hubiese servido durante un período prudencial
dimitiría, aunque fuese inmortal, porque sería
incapaz de perjudicar a los seres humanos haciéndoles
saber que habían sido gobernados por un robot.
A continuación se presenta una similitud entre
humanos y robots en lo que respecta a su psicología, de la
mano, nuevamente, de Susan Calvin:
"La psicología del robot está muy lejos
de ser perfecta (…), porque a pesar de todas las
complicaciones introducidas en el cerebro positrónico de
un robot, está construido por los humanos, y por lo
tanto conformado de acuerdo con sus valores.
Ahora bien, un humano enfrentado a una imposibilidad
responde a menudo retirándose de la realidad, penetra en
un mundo de engaño, entregándose a la bebida,
llegando al histerismo o arrojándose desde un puente.
Todo ello se reduce a lo mismo: la negativa o la incapacidad de
enfrentarse serenamente a la situación. Y lo mismo
ocurre con los robots. Un dilema, en el mejor de los casos,
creará un desorden en sus conexiones; y en el peor
abrasará su cerebro positrónico sin
reparación posible."
Entonces, se puede decir que los robots tienen un gran
parecido con los humanos. Este parecido radica en que los humanos
tenemos códigos ético-morales que debemos seguir
para poder llevar a cabo una vida civilizada, para poder vivir
con tranquilidad en sociedad.
Por el otro lado, los robots están regidos por
las Leyes de la Robótica. Estas leyes les imprimen cierta
conducta que deben llevar a cabo porque fueron hechos con el
propósito de servirnos, y, como se dijo anteriormente, la
palabra "robot" viene del vocablo checo robota, que
significa "servidumbre", "trabajo forzado", o "esclavitud".
Entonces, la semejanza entre humanos y robots radica en
los códigos ético-morales de los primeros y las
Leyes de los últimos.
Personalmente, creo que más allá de que
Asimov haya sido un reconocido personaje en el ámbito
científico, las Tres Leyes de la Robótica fueron un
intento literario de establecerle límites a
los robots, de las cuales surgen imperfecciones para usar como
argumentos en sus historias, siendo imposibles de aplicar en la
realidad.
A partir de la Segunda Ley, ningún robot de
Asimov pasaría el Test de Turing, ya que si su
interlocutor le ordenara que no le mienta y le pregunta si
"él" es un robot, le respondería que sí,
fallando la prueba. Y en caso de que lo pasara, estaría en
condiciones de mentir, robar y matar.
Por otro lado, las Tres Leyes de la Robótica de
Isaac Asimov le quitan, de otro modo, el carácter de
inteligencia a cualquier robot, ya que estas leyes
condicionarían el pensamiento de la máquina, por lo
que el libre albedrío que propone la inteligencia no se
podría concretar. Una máquina con IA podría
tranquilamente decidir a qué leyes atenerse y a
cuáles no. Esto, considerando que la inteligencia
artificial indica la capacidad de un artefacto de realizar los
mismos tipos de funciones que caracterizan al pensamiento humano,
muestra que los robots de Asimov no poseen verdaderamente
IA.
De hecho, existe un problema al tratar la inteligencia
artificial; y éste es que esa inteligencia está
basada en la única que conocemos: la humana. De
allí se derivan los problemas ético-morales, ya que
nuestra propia inteligencia no es perfecta en ninguno de esos
aspectos. Lo que sostiene Asimov es una utopía, ya que
modela a sus robots como debería ser el humano ideal. Esta
idealización comprende ser atento a los demás,
anteponiendo los intereses de los demás a los propios y
obedeciendo a las autoridades.
Luego, se puede sostener que Asimov
creía en los robots como reemplazo de los humanos. Se
puede sostener esto a partir de la idea de que establece
múltiples semejanzas entre los robots y los humanos,
mostrando que los mismos problemas pueden sucederle a unos o a
otros, y demostrando la superioridad de los robots frente a los
humanos en reiteradas oportunidades.
La preocupación de que los robots puedan
desplazar a o competir con los humanos es muy común.
Actualmente, no es posible aplicar las leyes de Asimov, dado que
los robots aun tienen una capacidad muy limitada para comprender
su significado, evaluar las situaciones de peligro tanto para los
humanos como para ellos mismos o resolver los conflictos que se
podrían dar entre leyes, ya que lo que les falta, y los
diferencia actualmente de los humanos es la creatividad.
Para cerrar el trabajo, se puede decir que se
corroboró la hipótesis al establecer una serie de
características a lo largo del trabajo en que se parecen
ambas inteligencias –la humana y la artificial-, así
como se encontraron sus diferencias.
- Asimov, Isaac, Yo Robot, Ediciones
Sudamericana, Buenos Aires,
2001, 315 pp. - Dennett, Daniel C., Contenido y conciencia,
Gedisa, Barcelona, 1996. - Haton, Jean Paul; Haton, Marie Christine, La
inteligencia artificial: una aproximación,
Paidós, Buenos Aires, 1991, 156 pp. - Logsdon, Tom, Robots: una revolución,
Orbis, Buenos Aires, 1987, 223 pp. - Minsky, Marvin, La sociedad de la mente: la
inteligencia humana a la luz de la inteligencia artificial,
Ediciones Galápago, Buenos Aires, 1986, 349
pp. - Skyvington, William, Machina sapiens : ensayo sobre
la inteligencia artificial, Huemul, Buenos Aires, 1978, 289
pp.
Datos del autor:
Lucas González Day
Estudios realizados: Primaria y Secundaria
completos
Fecha de realización: Abril-Septiembre
2005