You are on page 1of 5

Sobre

guerras, drones y soldados-robots


6 de abril, 2013 Ricardo Murer Graduado de Ciencias de la computacin (USP) y maestro de la Comunicacin (USP). Especialista de la estrategia digital y de las nuevas tecnologias. Follow: @rdmurer

En 1942, en el cuento de ciencia ficcin llamado Runaround, Isaac Asimov describi las tres leyes de la robtica. Leyes que, una vez codificadas en la memoria de los robots, garantizaran que esas mquinas no tomaran ningn tipo de accin capaz de herir o matar un ser humano. Pero la realidad lamentablemente no siempre recorre los mismos caminos preconizados en los cuentos de ciencia ficcin. Puede parecer raro en un primer momento imaginar una guerra sin soldados, pero diversos pases han aumentado significativamente sus inversiones en tecnologas capaces de promover combates a distancia. De acuerdo con Peter W. Singer: La fuerza area norteamericana entren ms operadores de vehculos no tripulados que pilotos para bombarderos y cazas juntos. [SINGER, 2013]. Y, segn Chris Anderson, editor de la revista Wired, la industria de los drones podr llegar a 30 mil millones de dlares en 2015. Un rea en franco crecimiento, sin duda. Pero hasta cuando los drones volarn solamente en reas de conflicto? Y quin exactamente puede controlar el alcance de un virus digital, manipulado por gobiernos y personas sin principios ticos y morales? En este momento en que las tecnologas computacionales amplan el alcance y la autonoma de las fuerzas armadas, considero importante rescatar los valores fundamentales que tejen y mantienen la coherencia en la sociedad humana. Todo desarrollo tecnolgico posee desdoblamientos sociales y ambientales y afectan nuestro modo de vivir. Desdoblamientos muchas veces imprevisibles. El Bueno Este nuevo captulo de nuestra historia comienza muy temprano, muy cerca de nosotros, ms exactamente, dentro de nuestras casas, en el cuarto de nuestros hijos. Ya hace mucho tiempo, empresas de entretenimiento digital vienen perfeccionando a tal punto sus video games de guerra, que pueden ser considerados, sin ninguna duda, excelentes programas de entrenamiento militar. Los ms populares y de mayor efecto psicolgico son aquellos donde el adolescente juega en primera persona (First Person
1

Un robot no puede herir a un ser humano o, por omisin, permitir que un ser humano sufra algn mal. [1a Ley de la Robtica] Isaac Asimov (Escritor y bioqumico norteamericano 1920 1992)

Shooter - FPS), en escenarios virtuales cada vez ms cercanos a la realidad. En ese caso, la pantalla representa la visin del usuario, al mismo tiempo que l toma el arma con sus propias manos virtuales. El objetivo es dar la sensacin de estar dentro de la accin, ampliando el compromiso y envolvimiento sicolgico del usuario. A partir de algunas bsquedas simples en Youtube, podemos encontrar escenas reales filmadas por soldados norteamericanos en combate en Afganistn o en Iraq. Comparadas con las creaciones digitales de algunos de esos video games, la semejanza es asustadora. Y eso no se restringe a los escenarios y piezas de artillera, sino tambin a los personajes (recomiendo una visita al website de Activision para una actualizacin). La virtualizacin de la guerra comienza no solamente con el entrenamiento de los jvenes de forma subliminal, sino en la bsqueda por la creacin de universos artificiales digitales, simulaciones perfectas de la realidad. El grial de la realidad virtual. La realidad virtual promete expandir la experiencia sensorial de los sonidos y de las imgenes ms all de los limites de los medios masivos, mucho ms all de la pantalla de la computadora o de la televisin. [DOWNES, 2005] As, no debemos sorprendernos cuando el prncipe Harry de Inglaterra, entonces prestando servicio militar en Afganistn en su entrevista para un periodista, acredit sus habilidades como tirador embarcado en helicptero Apache al hecho de jugar video games. Dijo: Es una satisfaccin para m, porque soy una de esas personas a las que le gusta jugar PlayStation y Xbox, usando mis dedos me gusta pensar que soy probablemente muy til". El Malo Fue en la Segunda Guerra Mundial que la ciencia computacional comenz su romance con las fuerzas armadas. Motivados por una causa noble, la total aniquilacin de la Alemania nazi y su rgimen totalitario, cientficos y matemticos trabajaron para los aliados en el desarrollo de armas y computadoras. Entre ellos, Alan Turing, uno de los padres de la computacin, y Gordon Welchman, ambos responsables por la invencin de Bombe, mquina que revel los cdigos criptografiados de los alemanes, creados por la mquina Enigma. Desde entonces, de cohetes a submarinos nucleares, de radares a aviones invisibles, todos los armamentos militares poseen alta tecnologa embarcada. Pero mientras en el pasado, los soldados eran considerados elementos esenciales para ganar los combates de una guerra, este escenario comienza a cambiar radicalmente con el desarrollo de la robtica y de las tecnologas de comunicacin digitales. Hoy, soldados y pilotos estn dejando el campo de batalla y migrando para las salas de control, que guardan cierta semejanza con sus cuartos de adolescentes. All reencuentran sus computadoras, pantallas y joysticks. Ms que pilotear aviones en video games y realizar misiones virtuales, por qu no hacer lo mismo en una rea de conflicto real en Afganistn o en Iraq? La robtica tambin ha sido usada en Iraq hace algunos aos. El ejrcito norteamericano posee una unidad especial en actividad en Iraq, un equipo llamado EOD (Explosive Ordnance Disposal - Destruccin de Material Explosivo), compuesta por un soldado que controla un pequeo robot a distancia. Ese robot, el tipo PackBot, pesa un poco ms de un kilo, posee varias cmaras y sensores, un brazo gil con cuatro articulaciones y se mueve por medio de esteras. Segn el ejrcito norteamericano esas unidades ya salvaron miles de vidas en Iraq. Si hoy las
2

unidades militares robticas por tierra y aire ya estn salvando vidas, entonces por qu vamos a oponernos a su uso? cul es el problema? El Feo Segn la ley de Moore, el nmero de transistores en circuitos integrados se duplica aproximadamente cada dos aos, entonces podemos esperar para el futuro ms sofisticacin y desarrollo tecnolgico. En el caso de la robtica, las investigaciones apuntan para laautonoma o la capacidad de los robots de tomar sus propias decisiones. Segn Hans Moravec: Alrededor de 2050 los cerebros de los robots basados en computadoras van a ejecutar 100 billones de instrucciones por segundo y comenzar a rivalizar con la inteligencia humana. [MORAVEC, 2009]. Imaginar robots que puedan pensar y actuar como nosotros no es ciencia ficcin, sino rea en franco desarrollo, ms conocida como Inteligencia Artificial, o IA. Entonces, en el futuro cercano, robots inteligentes y autnomos estarn en operacin, combatiendo al lado de soldados u otros robots, matando y siendo muertos (o desactivados). La lgica de la guerra justa divide los principios del raciocinio sobre la moralidad de la guerra en dos categoras: el jus ad bellum, o, el criterio para iniciar la guerra, y el jus in bello, relacionado a los requisitos para dirigir una guerra. En la conduccin de la guerra, existen dos principios humanitarios fundamentales: el principio de la discriminacin y de la proporcionalidad. El principio de la discriminacin, requiere que combatientes no ataquen directamente no combatientes y que tomen medidas razonables para evitar casualidades entre no combatientes. Entonces, cmo garantizar que ese principio sea respetado por robots, en especial en los conflictos de hoy, muchos de los cuales son trabados en ambientes urbanos, donde civiles y soldados sin uniforme coexisten? Ya el principio de la proporcionalidad significa determinar los limites mximos del uso de la fuerza que puedan ser empleados, racionalmente teniendo en vista los objetivos de una guerra justa. Al considerar un conflicto donde de un lado tenemos seres humanos, los cuales pueden herirse o morir, y del otro mquinas, que son producidas en serie y pueden ser restauradas despus de cualquier avera, volviendo rpidamente al campo de batalla. Esas guerras sern ciertamente asimtricas. Conclusin Vivimos en un perodo de nuestra historia donde las decisiones para el desarrollo tecnolgico respetan leyes de mercado, eso es intereses econmicos Existe de un lado clientes, representados por las fuerzas armadas y de otro proveedores, representados por la industria blica. No hay evidentemente un pensamiento tico y moral norteando el desarrollo tecnolgico de las armas de guerra. A pesar de los esfuerzos de Max Weber, Hans Jonas y Norbert Wiener, la tica computacional contina siendo nada ms que una bella disciplina terica enseada en las universidades. Tal vez tengamos que or justamente de un soldado-robot del futuro, con su cerebro de 100 billones de instrucciones por segundo, que el camino para superar nuestras diferencias polticas o religiosas es el dilogo, la negociacion pacfica y no la guerra.
3

Referencias Activision http://www.activision.com/atvihub/home.do Asimo - http://asimo.honda.com/ ASIMOV, I. I, Robot. New York: Spectra, 2004. Computer and Information Ethics. Stanford Encyclopedia of Philosophy. First published Tue Aug 14, 2001; substantive revision Thu Oct 23, 2008. Available at: http://plato.stanford.edu/entries/ethics-computer/ CURRIER, C. Everything We Know So Far About Drone Strikes. ProPublica - Journalism in the Public Interest. Feb. 5, 2013. Available at: http://www.propublica.org/article/everything-we-know-so-far-about-drone-strikes DOWNES, D. Interactive Realism: the poetics of cyberspace. Canada: McGill-Queens University Press, 2005. HALLS, J. S. Beyond AI : creating the conscience of the machine. New York: Prometheus Books, 2007. JONAS, H., Technology and Responsibility: Reflections on the New Tasks of Ethics. Social Research, 40:1, Spring, p.31. 1973. Available at: http://www.conductiveoutfit.com/mta/technologyandmen/readings/Jonas%20- %20Technology%20&%20Responsibility.pdf KELLY, K. What technology wants: Technology is a living force that can expand our individual potential if we listen to what it wants. New York: Penguin Group, 2010. KREPS, S.E. and Kaag, J. The Use of Unmanned Aerial Vehicles in Contemporary Conflict: A Legal and Ethical Analysis. March 15, 2012. Available at SSRN: http://ssrn.com/abstract=2023202 or http://dx.doi.org/10.2139/ssrn.2023202 KURZWEIL, R. The Singularity is Near. New York: Viking Books, 2005. LANIER, J. You are not a Gadget A Manifesto. New York: Penguin Group, 2010. LEMOS, A. Cibercultura: Tecnologia e Vida Social na Cultura Contempornea. Porto Alegre: Editora Sulina, 2010. LVY, P. O que virtual? So Paulo: Editora 34, 1996.MORAVEC, H. Rise of the Robots-- The Future of Artificial Intelligence. Scientific America. March, 23, 2009. Available at: http://www.scientificamerican.com/article.cfm?id=rise-of-the-robots&page=2 OBENHAUS, S. R. A Estrada para Basra e a tica da Perseguio. Military Review. 2002.
4

PARENTE, A. (Org.). Imagem mquina: a era das tecnologias do virtual. Rio de Janeiro: Editora 34, 1993. RAYNER, A. Are video games just propaganda and training tools for the military? The Guardian, Sunday 18 March 2012. Available at: http://www.guardian.co.uk/technology/2012/mar/18/video-games-propaganda-tools- military SINGER, P. W. The Predator Comes Home: A Primer on Domestic Drones, their Huge Business Opportunities, and their Deep Political, Moral, and Legal Challenges. Brookings. March 8, 2013. Available at: http://www.brookings.edu/research/papers/2013/03/08-drones-singer SMITH, G. Pentagon Cyber Force Turns To Hackers To Meet Growing Demand. Huff Post Tech, January, 2013. Available at: http://www.huffingtonpost.com/2013/01/28/pentagon-cyber-force_n_2567564.html Notas Drones De forma genrica son llamados de UAVs (Unmanned Aerial Vehicles Vehculos Areos No Tripulados) o RPVs (Remotely Piloted Vehicles Vehculos Pilotados Remotamente) o tambin VANTS (Vehculos Areos No Tripulados en su sigla en portugus). Prince Harry returns from Afghanistan as he reveals he killed Taliban insurgents http://www.telegraph.co.uk/news/uknews/theroyalfamily/9815438/Prince-Harry- confirms-he-killed-Taliban-as-he-returns-from-Afghanistan-saying-Take-a-life-to-save- a-life.html Las Tres Leyes de la Robtica: 1 Ley: Un robot no puede herir a un ser humano o, por omision, permitir que un ser humano sufra algn mal. 2 Ley: Un robot debe obedecer las rdenes que le sean dadas por seres humanos, excepto en los casos en que tales rdenes entren en conflicto con la Primera Ley. 3 Ley: Un robot debe proteger su propia existencia siempre que tal proteccin no entre en conflicto con la Primera y/o la Segunda Ley.

You might also like