Professional Documents
Culture Documents
misma, sino la utilizacin que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27].
Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la
posibilidad de que se vuelva incontrolable [Capanna, 2000].
Los objetos tecnolgicos son neutros: multiplican las posibilidades humanas tanto para
hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que
tienen dichos objetos sobre la vida de los individuos y las sociedades. Es el caso de la
energa atmica: ofrece tanto la posibilidad de construir centrales elctricas (que otorgan
luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen
esas mismas grandes ciudades). Y es tambin el caso del robot inteligente y autnomo: si su
objetivo principal fuese el de satisfacer al Hombre, sera de valiosa ayuda; pero si su
objetivo principal fuese el de satisfacer su propia supervivencia, sera extremadamente
peligroso [Fritz, 2007].
Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto;
como maravilloso y, al mismo tiempo, monstruoso. Esto no hace ms que revelar las
contradicciones intrnsecas de una sociedad escindida entre los tecnfilos y los tecnfobos,
entre los que se ufanan por los beneficios que puede brindar el poder tecnolgico y los que
temen al dao irreparable que puede acarrear su utilizacin descontrolada.
Es responsabilidad del homo sapiens ser mucho ms crtico con respecto a lo que hace y
por qu lo hace; slo as podr en parte prever algunas de las consecuencias indeseadas.
Cuanto ms amplio es su poder, mayor debe ser su sentido de la responsabilidad.
Dado que las investigaciones cientficas y los objetos tecnolgicos tienen el poder de
afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben
involucrar nicamente a los cientficos, los empresarios y los gobernantes. Es necesario que
la mayora de la gente tenga una participacin mucho ms activa a fin de fijar los lmites
adecuados. Y, en ese punto, el periodismo de divulgacin tiene una responsabilidad
fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].
De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin
derechos ni deberes. No son personas legales (al igual que las mquinas y las
computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar
que, en algn momento de la historia del Hombre, tampoco fueron considerados como
personas legales los negros, los nios, las mujeres, los extranjeros y las empresas [Freitas
Jr., 1985].
Chatarra o asesinato?
Por otra parte, el cambiar un robot ya obsoleto y/o pasado de moda por un modelo ms
nuevo y tirarlo como chatarra, como se hace con un automvil o cualquier
electrodomstico, no sera tambin una especie de asesinato?
Incluso puede ser que, algn da, stos argumenten que son seres conscientes y demanden
la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el
homo sapiens compartir el planeta con formas de vida sinttica que hasta podran tener
derechos legales.
Qu tipos de derechos se les debera otorgar y/o negar? Se les pueden aplicar los
derechos humanos? Si un robot emula perfectamente las caractersticas humanas, podra
reclamar ser miembro de la especie? No se podra exigirle que tenga un cuerpo fsico como
el humano, ya que con ese criterio se deberan rechazar tambin a las personas que
cuentan con partes artificiales [Lucas, 2006]. Cul ser el lugar que los robots ocupen
dentro de la sociedad? Formarn su propia sociedad?
Por otra parte, deberan los robots llevar armas? Si se enva un robot para asesinar a un ser
humano, de quin es la culpa: de la mquina, de las personas que la disearon, de la
empresa que la dise, de las personas que la construyeron o de la empresa que la
construy? Asimismo, deberan concedrseles patentes a las mquinas? Si un robot (una
computadora o una mquina) inventa una patente, pertenece a su dueo o a l mismo?
Nuevo campo
Con respecto a la tica para las mquinas, se pueden distinguir dos niveles: la humana y
la artificial propiamente dicha [Palmerini, 2004]. La funcin de la primera es la de
restringir quin debe construir y quin debe usar robots. Pero su desarrollo no va parejo con
el de la ciencia y la tecnologa; en otras palabras, no est en condiciones de seguir el
vertiginoso ritmo de las proezas cientficas y tecnolgicas del ser humano.
La tica artificial de los robots, o robotica, es aquella parte de la tica que se ocupa de
los problemas relacionados con los robots y con su interaccin con el hombre, los animales,
la sociedad, la naturaleza y el mundo [Monopoli, 2005].
Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes ticos.
Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto.
Incluso, los nios son una forma distinta de agente tico: tienen limitados derechos y
responsabilidades, y los adultos tienen deberes para con ellos.
Es ms, hay una variacin continua de agente tico que va desde el beb hasta el
adolescente [Storrs Hall, 2000]. Sin embargo, la mayora de las personas establece una
frontera divisoria para la tica entre lo que considera consciente y lo que considera no-
consciente.
Ilustracin 1. Fuentes: IFR para la densidad robtica; Eurostat para datos desempleo en pases
europeos y Trading Economics para los restantes pases.