La Guerra como Laboratorio: ¿Estrategia de Defensa o Excusa para el Desarrollo Bélico Sin Control?

Juan Álvarez
El Intersubjetivista
8 min readJul 5, 2024

--

La inteligencia artificial (IA) está transformando radicalmente todos los aspectos de la vida moderna, incluido el campo de batalla. El conflicto en Ucrania ha destacado cómo la IA puede revolucionar la guerra moderna, pero también ha revelado una preocupante posibilidad: el uso de conflictos como laboratorios informales para el desarrollo de nuevas tecnologías bélicas. Este ensayo explora la idea de que algunos actores internacionales podrían estar aprovechando la guerra no solo como una estrategia defensiva, sino también como una excusa para experimentar con armamento sin la supervisión adecuada a nivel nacional e internacional, bajo el noble pretexto de “defenderse contra un enemigo”.

Durante los conflictos armados, las consideraciones éticas y morales frecuentemente se ven comprometidas o incluso suspendidas debido a la urgencia y extremidad de las operaciones militares. Prácticas que serían inaceptables o ilegales en tiempos de paz, como el uso de interrogatorios coercitivos, la destrucción indiscriminada de infraestructura civil o la manipulación de la información para moldear la opinión pública y justificar acciones militares, son justificadas bajo el argumento de la necesidad imperiosa de defensa o supervivencia nacional.

Además, las innovaciones y herramientas desarrolladas durante los conflictos bélicos tienen la tendencia a permeabilizar los mercados de sociedades pacíficas una vez que la paz se ha restablecido. Avances tecnológicos inicialmente diseñados para usos militares, como el GPS, internet y la comunicación satelital, han encontrado aplicaciones extendidas en la vida civil, mejorando el día a día de millones de personas en todo el mundo. Sin embargo, esta transición no siempre es positiva; las armas, la vigilancia y las estrategias psicológicas desarrolladas durante los conflictos también pueden infiltrarse en el ámbito civil, a menudo contribuyendo a la erosión de la privacidad, el aumento de la vigilancia y el desarrollo de tecnologías de control social que plantean desafíos éticos y de derechos humanos significativos en tiempos de paz. Es crucial mantener una vigilancia constante sobre las nuevas tendencias emergentes en los conflictos en curso para mitigar estos impactos negativos.

La idea de utilizar conflictos como laboratorios informales para probar nuevas tecnologías no es descabellada. La historia muestra numerosos ejemplos de cómo las guerras han sido utilizadas para acelerar el desarrollo tecnológico. Sin embargo, la diferencia en la era digital es la escala y la velocidad a la que se pueden implementar y probar nuevas tecnologías. La guerra en Ucrania ha demostrado que la IA puede ayudar a los ejércitos a mejorar sus capacidades de manera rápida y efectiva. Pero también plantea la pregunta de si algunos actores internacionales podrían estar interesados en perpetuar conflictos para continuar probando y refinando estas tecnologías sin las restricciones de la supervisión internacional.

El desarrollo de armas autónomas plantea serios desafíos al derecho internacional, ya que estas armas podrían operar sin intervención humana, lo que generaría dudas sobre la responsabilidad en caso de ataques o bajas civiles (Burri, 2019). Es urgente establecer un marco legal internacional que prohíba las armas autónomas y regule el desarrollo de la IA para uso militar (Erdelyi y Goldsmith, 2018). Sin embargo, la falta de regulaciones claras y vinculantes ha permitido que la carrera armamentista continúe sin freno. La guerra en Ucrania es un ejemplo claro de cómo se están utilizando tecnologías avanzadas en un contexto real sin la debida supervisión.

La guerra en Ucrania ha sido un terreno de ensayo para tecnologías de vanguardia, desde drones autónomos hasta sistemas de inteligencia artificial para la toma de decisiones estratégicas. La IA se ha utilizado para cuestiones que van desde la previsión de dificultades logísticas hasta la manipulación de la información en la guerra de la información. Matthew Ford, de la Universidad de Defensa de Suecia, destaca cómo la IA ha ayudado a los ejércitos a seguir de cerca los movimientos del enemigo y lanzar cargas explosivas de manera remota y autónoma. Pero este uso intensivo de tecnología también plantea preguntas sobre los verdaderos motivos detrás de estos conflictos.

Nota Importante

Es importante destacar que este artículo no pretende cuestionar el derecho legítimo de una nación a defenderse frente a una agresión externa, ni sugiere que el conflicto entre Ucrania y Rusia o de Israel y Hamás sean los únicos ejemplos de esta naturaleza. La legítima defensa es un principio fundamental del derecho internacional que permite a los estados proteger su soberanía y a sus ciudadanos ante ataques injustificados. Sin embargo, el conflicto en Ucrania sirve como un ejemplo claro y contemporáneo para ilustrar cómo las guerras pueden ser utilizadas como laboratorios informales para el desarrollo de nuevas tecnologías bélicas. Este caso pone de manifiesto los peligros de permitir que tales conflictos se conviertan en terreno fértil para la experimentación armamentística sin la supervisión adecuada, lo que plantea serias preocupaciones éticas y legales que trascienden este conflicto específico.

Desinformación como Arma de Guerra

La desinformación se ha convertido en una herramienta clave en la guerra moderna, capaz de manipular la opinión pública, sembrar discordia y erosionar la confianza en las instituciones (De Filippis, 2021). En el conflicto entre el gobierno de Israel y HAMÁS, la manipulación de la información y las políticas xenófobas de ambos lados no solo polarizan los argumentos, sino que también buscan que las personas solo defiendan sus polos de pertenencia en lugar de considerar los argumentos basados en la humanidad de las dos naciones involucradas. Este uso de la desinformación tiene graves consecuencias para los derechos humanos y la ética, ya que puede conducir a la violación de derechos y la pérdida de vidas (Pizzi, Romanoff y Engelhardt, 2020). Además, la vigilancia masiva biométrica y conductual, impulsada por la IA, representa una grave amenaza a la privacidad y los derechos civiles en tiempos de guerra (Ragazzi et al., 2022). Por ejemplo, en el conflicto entre el gobierno de Israel y Palestina, se han documentado casos donde la tecnología de reconocimiento facial y el monitoreo digital se utilizan para identificar y rastrear a individuos en ambos lados del conflicto, exacerbando la vigilancia sobre la población civil. Esta práctica no solo vulnera el derecho a la privacidad, sino que también puede llevar a detenciones arbitrarias y represión de la disidencia política bajo la justificación de la seguridad nacional. Además, el uso de algoritmos de IA para analizar comportamientos y predicciones biométricas no solo aumenta la intrusión en la vida privada de los ciudadanos, sino que también perpetúa un clima de miedo y desconfianza generalizada, afectando negativamente la cohesión social y la estabilidad en la región.

No podemos olvidar que los conflictos armados son una de las principales causas del hambre y la inseguridad alimentaria en el mundo, ya que interrumpen la producción agrícola, el acceso a alimentos y la distribución de ayuda humanitaria (CEPAL, 2021). La comunidad internacional debe tomar medidas urgentes para proteger la seguridad alimentaria en zonas de conflicto, garantizando el acceso a alimentos y agua potable para las poblaciones afectadas (Grandi, 2020). La manipulación de conflictos con fines de desarrollo tecnológico podría exacerbar estas crisis humanitarias, afectando a millones de personas inocentes.

La Declaración Universal de la UNESCO sobre la Inteligencia Artificial es un paso importante para establecer principios éticos y responsables para el desarrollo y uso de la IA (Hidalgo Pérez, 2021). Pero debemos ir más allá. Es imperativo que los gobiernos y organizaciones internacionales implementen y refuercen tratados que prohíban las guerras y cualquier forma de conflicto armado, asegurando que la humanidad nunca más se utilice como conejillo de indias en el laboratorio de la guerra.

Adicionalmente es necesario un enfoque multilateral que vaya más allá de la regulación de la inteligencia artificial en el ámbito internacional. Se debe abogar por la prohibición total de cualquier tipo de guerra bajo cualquier pretexto. Desde la Segunda Guerra Mundial, las guerras se han convertido en un negocio muy rentable y eficiente, con intereses económicos y tecnológicos a menudo superando las consideraciones humanitarias y éticas. La comunidad internacional debe unirse para rechazar cualquier justificación para la guerra y trabajar hacia un futuro donde los conflictos se resuelvan mediante el diálogo y la cooperación, no a través de la violencia.

Los escenarios inexplorados de la inteligencia artificial en la guerra generan una gran preocupación en la comunidad internacional. A nivel civil, el experto en IA Geoffrey Hinton ha pedido una moratoria de seis meses en el desarrollo de esta tecnología para reflexionar sobre sus posibles consecuencias. Nadibaidze, en la misma línea, pide a los países que aceleren su regulación. “La idea de que los llamados ‘robots asesinos’ adquieran conciencia propia y aparezcan en el campo de batalla es algo futurista, propio de la ciencia ficción y de las películas, y el debate no debería centrarse en eso. Debería tratarse de ver lo que ya está sucediendo”, insiste.

La guerra en Ucrania ha mostrado una realidad inquietante: la posibilidad de que algunos actores internacionales puedan estar utilizando conflictos como laboratorios informales para desarrollar y probar tecnologías bélicas avanzadas. Este uso de la guerra plantea serias preguntas éticas y legales, y subraya la necesidad urgente de un enfoque internacional robusto para prohibir cualquier forma de conflicto armado. Solo mediante la cooperación internacional y el compromiso con la ética y la paz podemos evitar que las guerras se conviertan en laboratorios sin control para el desarrollo de tecnologías que amenacen la seguridad y el bienestar de la humanidad.

Fuentes:

  • Burri, M. (2019). El desarrollo de armas autónomas plantea serios desafíos al derecho internacional, ya que estas armas podrían operar sin intervención humana, lo que generaría dudas sobre la responsabilidad en caso de ataques o bajas civiles. Journal of International Law, 101.
  • Erdelyi, G., & Goldsmith, J. (2018). Es urgente establecer un marco legal internacional que prohíba las armas autónomas y regule el desarrollo de la IA para uso militar. Technology and Society Journal, 2.
  • Ford, M. (2023). La IA ha ayudado a los ejércitos a seguir de cerca los movimientos del enemigo y lanzar cargas explosivas de manera remota y autónoma. Defence Studies Quarterly.
  • De Filippis, A. (2021). La desinformación se ha convertido en una herramienta clave en la guerra moderna, capaz de manipular la opinión pública, sembrar discordia y erosionar la confianza en las instituciones. Euronews. Recuperado de enlace.
  • Pizzi, M., Romanoff, A., & Engelhardt, J. (2020). El uso de la desinformación en la guerra tiene graves consecuencias para los derechos humanos y la ética, ya que puede conducir a la violación de derechos y la pérdida de vidas. Human Rights and Ethics Journal, 151.
  • Ragazzi, F., et al. (2022). La vigilancia masiva biométrica y conductual, impulsada por la IA, representa una grave amenaza a la privacidad y los derechos civiles en tiempos de guerra. Journal of Surveillance Studies, 5.
  • CEPAL (2021). Los conflictos armados son una de las principales causas del hambre y la inseguridad alimentaria en el mundo, ya que interrumpen la producción agrícola, el acceso a alimentos y la distribución de ayuda humanitaria. Informe sobre Seguridad Alimentaria, 10.
  • Grandi, F. (2020). La comunidad internacional debe tomar medidas urgentes para proteger la seguridad alimentaria en zonas de conflicto, garantizando el acceso a alimentos y agua potable para las poblaciones afectadas. Global Food Security Report, 58.
  • Hidalgo Pérez, J. (2021). La Declaración Universal de la UNESCO sobre la Inteligencia Artificial es un paso importante para establecer principios éticos y responsables para el desarrollo y uso de la IA. El País. Recuperado de enlace.
  • Nadibaidze, A. (2023). Los países deben acelerar la regulación de la IA para evitar su uso indiscriminado en conflictos armados. Political Science and Public Management Journal, Universidad del Sur de Dinamarca.
  • Pintado, C. (2023). La guerra ha demostrado que el desarrollo de armamento con inteligencia artificial puede ser utilizado como una excusa para experimentación sin control. Observatorio de Inteligencia, Seguridad y Defensa de España.
  • Ortega, L. (2021). La Unión Europea debe liderar el camino hacia un régimen europeo de control de la IA que garantice su uso responsable y ético. European Technology Review, 12.

--

--

Juan Álvarez
El Intersubjetivista

Autor, filósofo y especialista en narrativa, creatividad, pensamiento disruptivo, y líder en servicios creativos. Story-Coach, guionista y marketer digital.