You are on page 1of 13

En cuanto al primer punto, y en general, lo que preocupa no es tanto la tecnologa en s

misma, sino la utilizacin que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27].
Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la
posibilidad de que se vuelva incontrolable [Capanna, 2000].

Los objetos tecnolgicos son neutros: multiplican las posibilidades humanas tanto para
hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que
tienen dichos objetos sobre la vida de los individuos y las sociedades. Es el caso de la
energa atmica: ofrece tanto la posibilidad de construir centrales elctricas (que otorgan
luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen
esas mismas grandes ciudades). Y es tambin el caso del robot inteligente y autnomo: si su
objetivo principal fuese el de satisfacer al Hombre, sera de valiosa ayuda; pero si su
objetivo principal fuese el de satisfacer su propia supervivencia, sera extremadamente
peligroso [Fritz, 2007].

Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto;
como maravilloso y, al mismo tiempo, monstruoso. Esto no hace ms que revelar las
contradicciones intrnsecas de una sociedad escindida entre los tecnfilos y los tecnfobos,
entre los que se ufanan por los beneficios que puede brindar el poder tecnolgico y los que
temen al dao irreparable que puede acarrear su utilizacin descontrolada.

De todas formas, ya no es posible revertir el inevitable proceso de aceleracin tecnolgica


acaecido en las ltimas dcadas. Slo queda como nica posibilidad la de tomar adecuadas
decisiones a fin de suavizar los peligros que pudiese originar, pero sin renunciar a la
multiplicidad de sus ventajas. En otras palabras, no se discute si se utiliza o no la
tecnologa, sino solamente la forma en que se la va a emplear.

Es responsabilidad del homo sapiens ser mucho ms crtico con respecto a lo que hace y
por qu lo hace; slo as podr en parte prever algunas de las consecuencias indeseadas.
Cuanto ms amplio es su poder, mayor debe ser su sentido de la responsabilidad.

Dado que las investigaciones cientficas y los objetos tecnolgicos tienen el poder de
afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben
involucrar nicamente a los cientficos, los empresarios y los gobernantes. Es necesario que
la mayora de la gente tenga una participacin mucho ms activa a fin de fijar los lmites
adecuados. Y, en ese punto, el periodismo de divulgacin tiene una responsabilidad
fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].

De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin
derechos ni deberes. No son personas legales (al igual que las mquinas y las
computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar
que, en algn momento de la historia del Hombre, tampoco fueron considerados como
personas legales los negros, los nios, las mujeres, los extranjeros y las empresas [Freitas
Jr., 1985].

Si la mquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates


interesantes o de hacer nuevos descubrimientos cientficos (en suma, si desarrollase
habilidades cognitivas), tal vez no habra dudas de que apagarlo permanentemente
constituira una especie de asesinato.

Pero, si en vez de ser intelectualmente brillante, qu sucedera si mostrase una gama de


emociones equivalentes a las que componen al ser humano promedio? Incluso ms, si
tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada
gama de emociones, sera cruel pegarle, o sera nada ms que golpear a piezas metlicas o
de plstico? [Storrs Hall, 2000].

Chatarra o asesinato?

Por otra parte, el cambiar un robot ya obsoleto y/o pasado de moda por un modelo ms
nuevo y tirarlo como chatarra, como se hace con un automvil o cualquier
electrodomstico, no sera tambin una especie de asesinato?

Antes de construir humanoides inteligentes, se deberan resolver algunos problemas. De


hecho, al momento de disearlos se debera tener definido si no es una crueldad producir en
masa androides sintientes y luego eliminarlos en campos de exterminio.

Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su


propietario puede hacer el uso que quiera incluso hasta destruirlo. Es probable que, con
el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad
de los androides [Monopoli, 2005].

Incluso puede ser que, algn da, stos argumenten que son seres conscientes y demanden
la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el
homo sapiens compartir el planeta con formas de vida sinttica que hasta podran tener
derechos legales.

Qu tipos de derechos se les debera otorgar y/o negar? Se les pueden aplicar los
derechos humanos? Si un robot emula perfectamente las caractersticas humanas, podra
reclamar ser miembro de la especie? No se podra exigirle que tenga un cuerpo fsico como
el humano, ya que con ese criterio se deberan rechazar tambin a las personas que
cuentan con partes artificiales [Lucas, 2006]. Cul ser el lugar que los robots ocupen
dentro de la sociedad? Formarn su propia sociedad?
Por otra parte, deberan los robots llevar armas? Si se enva un robot para asesinar a un ser
humano, de quin es la culpa: de la mquina, de las personas que la disearon, de la
empresa que la dise, de las personas que la construyeron o de la empresa que la
construy? Asimismo, deberan concedrseles patentes a las mquinas? Si un robot (una
computadora o una mquina) inventa una patente, pertenece a su dueo o a l mismo?

Nuevo campo

Con respecto a la tica para las mquinas, se pueden distinguir dos niveles: la humana y
la artificial propiamente dicha [Palmerini, 2004]. La funcin de la primera es la de
restringir quin debe construir y quin debe usar robots. Pero su desarrollo no va parejo con
el de la ciencia y la tecnologa; en otras palabras, no est en condiciones de seguir el
vertiginoso ritmo de las proezas cientficas y tecnolgicas del ser humano.

En lo referente a los nuevos desarrollos tecnolgicos, mucho de lo que en poco tiempo-


ser factible, est ms relacionado con los clculos financieros empresariales y con las
previsiones polticas y econmicas gubernamentales, que con los nuevos descubrimientos o
paradigmas cientficos [Dalai Lama, 2006, p. 221].

La tica artificial de los robots, o robotica, es aquella parte de la tica que se ocupa de
los problemas relacionados con los robots y con su interaccin con el hombre, los animales,
la sociedad, la naturaleza y el mundo [Monopoli, 2005].

Se trata de un nuevo campo de estudio que considera a las mquinas, computadoras y


robots como un tipo de agentes ticos e intenta implementar en ellos facultades morales de
toma de decisiones [Allen, Wallach y Smit, 2006] [Moor, 2006].

La idea es otorgarles un determinado conjunto de reglas o guas de comportamiento


universal, un cdigo de tica, a medida que se vayan haciendo cada vez ms complejas, a
fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornara
imposible controlarlos) [Proena, 2001].

Hasta hoy, slo el Hombre se comprometi a un razonamiento tico; ya es hora de


incorporarle una dimensin tica a algunas mquinas complejas [Anderson y Leigh
Anderson, 2006].

Otros agentes ticos

Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes ticos.
Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto.
Incluso, los nios son una forma distinta de agente tico: tienen limitados derechos y
responsabilidades, y los adultos tienen deberes para con ellos.

Es ms, hay una variacin continua de agente tico que va desde el beb hasta el
adolescente [Storrs Hall, 2000]. Sin embargo, la mayora de las personas establece una
frontera divisoria para la tica entre lo que considera consciente y lo que considera no-
consciente.

Por ejemplo, si se piensa que una serpiente no es consciente, no se harn muchos


cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una
mquina no es consciente, se tendr mucho menos escrpulo en lastimarla.

Recientemente un equipo internacional de cientficos y acadmicos pertenecientes a


EURON (EUropean RObotics research Network) elabor un prototipo de cdigo de
tica. A grandes rasgos, sus recomendaciones son las siguientes:

Asegurarse el control de los humanos sobre los robots.


Prevenir su utilizacin nociva o ilegal.
Proteger los datos obtenidos por los robots.
Rastrear y grabar la actividad de los robots.
Brindar una identificacin nica a cada robot.

Ilustracin 1. Fuentes: IFR para la densidad robtica; Eurostat para datos desempleo en pases
europeos y Trading Economics para los restantes pases.

You might also like