Slaughterbots: drones para matar

¿Estamos viviendo una nueva carrera armamentística?

ThinkTech Seminars
ThinkTech
5 min readNov 13, 2020

--

Albert Vidal

¿Te has planteado todas las posibilidades que nos abren los drones? Dotados de inteligencia artificial, están revolucionando sectores tan diversos como el agrícola, el cinematográfico o el energético — además de optimizar tareas tan diversas como la entrega de paquetes o la respuesta ante catástrofes naturales. Pero… ¿podrían ser protagonistas de una nueva distopía de guerra y terrorismo?

Hace unos días, tras ser secuestrado por el algoritmo de YouTube, me encontré viendo un breve cortometraje, Slaughterbots, que me dio más de un escalofrío. Recomiendo verlo antes de seguir leyendo… son solo 8 minutos:

Future of Life Institute on YouTube

Todo comienza con un hombre presentando, al estilo Steve Jobs, un pequeño dron inteligente, armado con explosivos y tecnología de reconocimiento facial. Ante un público entusiasmado, el presentador muestra su eficacia letal a través de varios vídeos. Después anuncia la posibilidad de especificar parámetros como edad, sexo, etnia o tipo de uniforme… para la selección de objetivos. Ya no hará falta utilizar bombas nucleares, continúa, porque hordas de estos drones con “precisión quirúrgica” serán “suficientes para matar a media ciudad — la mitad mala”.

El video continua con una secuencia de malas noticias — los drones han caído en manos de grupos criminales… y los ataques empiezan a sucederse: once senadores mueren en el Congreso, y más de 8.500 estudiantes son asesinados por compartir un vídeo en las redes sociales exponiendo actos de corrupción.

Pero que no cunda el pánico: el vídeo es solo un montaje.

¿Posibilidad o exageración?

Este cortometraje fue presentado en un evento del Convenio sobre Ciertas Armas Convencionales de las Naciones Unidas en Ginebra. Lo promovía Stuart Russell, investigador en inteligencia artificial (IA) en la Universidad de Berkeley, a través del Future of Life Institute. El objetivo de Russell, compartido por muchos otros investigadores y expertos, es prohibir los usos militarizados de la IA.

Dos años antes, en 2015, más de mil expertos, entre los que se encontraban Stephen Hawking y Elon Musk (Tesla), firmaron un documento pidiendo un mayor esfuerzo en la prevención de los usos autónomos de la IA. En concreto, hablaban de evitar una carrera armamentística en el desarrollo y empleo de armas de ataque autónomas sin control humano significativo — es decir, en las que no haya decisión humana con respecto a: el objetivo de los ataques; la selección del arma, tiempo y espacio de acción; la predicción de efectos colaterales; y la evaluación de daños.

En el lado opuesto, algunos expertos argumentan que no hay por qué tener miedo a los slaughterbots. Paul Scharre, miembro del Center for a New American Security y autor del ibro Army of None: Autonomous Weapons and the Future of War, critica el video por sensacionalista y poco realista. Este experto, que antes trabajó en el Departamento de Defensa de los Estados Unidos, afirma que ese tipo de escenarios tremendistas (como el del cortometraje) asumen cuatro desarrollos cuestionables:

  1. Que los gobiernos producirán estos drones en masa para fines de ataque o defensa militar.
  2. Que no hay defensa efectiva contra este tipo de dron, cuando bastaría con alambre de espino para detenerlos.
  3. Que los gobiernos serán incapaces de mantener esta tecnología fuera del alcance de los terroristas.
  4. Que los terroristas serán capaces de organizar ataques coordinados con drones letales.

Pero, ¿es realmente equivocado asumir esto? Al fin y al cabo, en pocos años hemos visto algunos desarrollos preocupantes que podrían estar acercando al presente el escenario del cortometraje Slaughterbots.

El futuro es… ¿hoy?

1 ¿Producirán los gobiernos drones en masa para emplearlos con fines militares?

Ya hay armas parecidas a esos pequeños drones, y los gobiernos comprenden los beneficios que supone ser el primero en desarrollarlos. Un claro ejemplo de esto es el sistema PERDIX desarrollado por el Departamento de Defensa de los Estados Unidos, que consiste en el despliegue de micro drones casi-autónomos desde aviones de caza. La agencia DARPA, por su parte, está trabajando en el programa OFFensive Swarm-Enabled Tactics (OFFSET), que consiste en hordas de hasta 250 pequeños drones para combate urbano. China exhibió su capacidad tecnológica en 2018, cuando desplegó más de 1.000 drones de manera sincronizada y autónoma, para un espectáculo nocturno.

2¿Existen defensas ante los ‘Slaughterbots’… y bastaría con usar alambre de espino para estar a salvo?

Si bien es cierto que existen contramedidas para detener o neutralizar drones, es poco realista pensar que cubriremos nuestras casas con alambre de espino, o que todos tendremos armas láser para tumbar a esos drones. Es más, esas defensas podrán usarse en infraestructuras críticas, pero la grandísima mayoría de la población quedará totalmente indefensa.

3¿Serán los gobiernos capaces de mantener esas armas fuera del alcance de los terroristas?

Hay una pequeña diferencia entre los drones de ataque y un arma nuclear: los primeros son mucho más fáciles de conseguir y manipular. No hacen falta centrifugadoras nucleares — fuera del alcance de terroristas — ni grandes cantidades de explosivos. Esto significa que, por muchos controles fronterizos que haya, su desarrollo va a ser algo extremadamente difícil de regular. Por otro lado, el peligro no viene solamente de los terroristas. Sería bueno reflexionar sobre el uso que gobiernos corruptos podrían hacer de estos aparatos para silenciar eficazmente a la oposición, a un grupo étnico, o a los intelectuales.

4¿Es realista pensar que los terroristas serán incapaces de coordinar ataques con drones autónomos?

En el pasado hacían falta muchas manos para lanzar un ataque coordinado: con más manos, más gatillos pueden ser apretados al mismo tiempo, y más caos y daño se puede causar. La regla de los gatillos no es aplicable a estos drones. El hecho de que los drones sean casi o totalmente autónomos hace que muy pocas manos sean necesarias para lanzar ataques devastadores. Solo hay que darles las instrucciones, y ellos se encargan del resto.

Una llamada de atención

A pesar del impacto que tuvo el cortometraje Slaughterbots y de las buenas intenciones de tantos expertos e investigadores, el hecho es que está resultando difícil generar conciencia e imponer prohibiciones a este tipo de armas. El proceso de exigir obligaciones a nivel internacional pasa a través del consenso y de la aceptación voluntaria de compromisos. Actualmente no hay modo de prevenir el desarrollo de tales tecnologías o de forzar a los países a autorregularse. Desafortunadamente, los países más interesados en el desarrollo de estas tecnologías son, al mismo tiempo, los más influyentes en la esfera internacional.

No hace falta ser un especialista en guerras, genocidios o terrorismo para adivinar los peligros que conlleva desarrollar herramientas que deshumanicen todavía más estas acciones, ya de por sí reprobables.

La combinación de armas autónomas e inteligencia artificial plantea dilemas y retos que, queramos o no, tendremos que debatir y resolver en un futuro no muy lejano. Llegar tarde puede traer consecuencias nefastas.

Albert Vidal estudió Relaciones Internacionales en la Universidad de Navarra y en la actualidad trabaja como asistente de investigación del profesor Michaël Tanchum | LinkedIn

--

--

ThinkTech Seminars
ThinkTech

Somos una comunidad de universitarios de distintas disciplinas. Escribimos sobre tecnología y su papel en el presente y futuro de la sociedad.