Por Bautista Griffini, alumno del taller de RRII
La película nos proporciona un abanico muy marcado acerca de los dilemas en el uso de la Inteligencia Artificial, para comenzar contaremos un poco de qué se trata. Empecemos conociendo a Caleb, un programador que trabaja en una multinacional muy parecida a Google quien gana un concurso que consiste en pasar una semana junto al presidente de la empresa. Una vez en el lugar, Caleb entra a la mansión donde reside Nathan, un genio multimillonario e inmediatamente queda claro que Caleb no ha viajado hasta allí para tomar unas cervezas con Nathan. El porqué de su visita es develado rápidamente: participar en un experimento para determinar si una máquina posee inteligencia.
El punto nodal que se deja entrever es claro, que el público conecte con el robot, que sienta empatía. Caleb se propone aplicar a la máquina antropomorfa (que se llama Ava y muestra el rostro de una de las actrices de moda, Alicia Vikander) una variante del test de Turing, según el cual una computadora demuestra ser inteligente si hablando con ella, o interactuando de algún otro modo, el humano se muestra incapaz de determinar si se trata de una computadora o de otro humano.
En este caso, la particularidad radica en que Caleb ya sabe que se trata de una máquina, lo cual dificulta la aplicación del test. Al fin y al cabo, es una máquina, una cosa, sin derechos ni libertades, perteneciente a su creador. Durante las conversaciones que se dan entre los protagonistas, llegamos a reflexionar sobre la naturaleza del ser humano y la conciencia, Caleb llega a plantearse si hay diferencia entre su existencia y la de la máquina.
La película explora los apasionantes, pero también peligrosos desafíos de crear máquinas con Inteligencia Artificial, Nathan llega a decir: "Un día nos mirarán como si fuésemos simios condenados a la extinción"[1]. No son pocos los científicos que han escrito y debatido sobre este riesgo, temiendo las posibilidades de que el “cerebro” de una computadora superara al de sus creadores, y siendo consciente de su diferencia pudiera temer por su supervivencia y reproducirse o defenderse de manera catastrófica para el ser humano.
En la actualidad, la Inteligencia Artificial comienza, más frecuentemente, a ser aplicada en todo tipo de ámbitos, desde los artefactos más comunes hasta en armamentos de los más variados. Países como China, Israel, Corea del Sur, Rusia, Reino Unido y Estados Unidos han proyectado gran parte de su presupuesto en investigaciones de esta línea, buscando desarrollar todo tipo de aplicaciones militares integradas con estas tecnologías que se convierten cada vez más en un punto estratégico de sus políticas de defensa.
Como resultado de estas discusiones, en los últimos años han surgido diversas campañas con el fin de poner atención a los problemas derivados de la utilización de este tipo de sistemas, como por ejemplo Campaign to Stop Killer Robots o Article 36, e iniciativas de diversas instituciones como la Cruz Roja o Human Rights Watch que buscan consolidar algún tipo de limitación o regulación de este tipo de dispositivos en el campo de batalla.
Sin embargo, es posible sugerir, que las máquinas no se aparecerán encima nuestro de forma tan repentina. Los avances en el campo de la tecnología deben superar aún muchas complicaciones, la aplicación de sistemas novedosos resulta mucho más lenta de lo que los entusiastas futuristas aclaman. Conocemos -porque el pasado así nos permite- que las instituciones militares se han opuesto a algunas innovaciones que ponían en peligro el control humano sobre determinados instrumentos militares.
Por su parte, la metamorfosis de las tecnologías más avanzadas en sistemas efectivamente operativos no ha resultado tan alentadora como parece: problemas de financiación, burocráticos o de ingeniería provocaron graves retrasos. Los sistemas autónomos, tal vez, en el corto o mediano plazo serán complementarios más que reemplazantes de las plataformas no autónomas.
Bibliografía:
● Chan, M. (2019). China and the U.S. are fighting a major battle over killer robots and the future of AI. Time. Recuperado de https://time.com/5673240/china-killer-robots-weapons/
● Coker, C. (2013). Warrior Geeks: how 21st century technology is changing the way we fight and think about war, Oxford University Press.
● Freedman, L. (2019). La guerra futura. Un estudio sobre el pasado y el presente, Ed. Crítica.
● Scharre, P. (2019). Military Applications of Artificial Intelligence: potential risks to International Peace and Security en The Militarization of Artificial Intelligence (2019), Stanley Center for Peace and Security | UNODA | Stimson.
● Sloan, E. (2015). Robotics at War, Survival, Vol.57 (2), International Institute for Strategic Studies, pp. 107-120. https://doi.org/10.1080/00396338.2015.1090133
● Spindel, J. (2019). Artificial Intelligence, Nuclear Weapons, and Strategic Stability en The Militarization of Artificial Intelligence (2019), Stanley Center for Peace and Security | UNODA | Stimson.
Referencias: [1] Garland, A. (director). (2015) Ex Machina [Película] DNA Films.