EMBERS, potente herramienta para modelar escenarios en América Latina

El experto ruso Evgeny Pashentsev denuncia un sistema de inteligencia artificial desarrollado por EEUU para pronosticar y eventualmente detonar procesos políticos en la región.

Ilustración: Aldo Cruces

Intervención del Prof. Evgeny Pashentsev en la mesa redonda sobre “Libertad de expresión en el entorno digital en el contexto de la discusión de temas internacionales de seguridad de la información en plataformas internacionales especializadas”, en el Ministerio de Relaciones Exteriores de la Federación de Rusia, en el cual analiza las nuevas oportunidades y los nuevos riesgos para la seguridad psicológica nacional e internacional por el rápido desarrollo de las tecnologías y mercados de Inteligencia Artificial (IA).

Por Evgeny Pashentsev/ Academia.edu

Las posibilidades de la inteligencia artificial y el aprendizaje automático están creciendo a una velocidad sin precedentes. Estas tecnologías tienen muchas áreas de utilidad social: desde la traducción automática hasta el diagnóstico médico. Los próximos años y décadas brindarán inmensas oportunidades para tales aplicaciones.

El volumen de inversión en el campo de la inteligencia artificial en las próximas dos décadas podría ser de billones de dólares. Así, según el informe de la compañía internacional PricewaterhouseCoopers Middle East (PwC), publicado en Dubai durante la Cumbre Mundial del Gobierno, en el 2030 el crecimiento económico en el mundo se beneficiará en un 14% mediante del uso de inteligencia artificial, con valores superiores a los 15,7 billones de dólares.

Las posibilidades de la AI para acelerar el crecimiento económico, de acuerdo con el PwC, podrían beneficiar a China (hasta un 26% del crecimiento económico del país a expensas de AI en el 2030).

Debido a las oportunidades del uso de la inteligencia artificial, este ámbito es seguido con suma atención por equipos de investigación en diferentes países del mundo y por organizaciones internacionales líderes.

Según un nuevo informe publicado por Allied Market Research, titulado, Artificial Intelligence Market for Technology and Industry Verticals: Global Opportunity Analysis and Industry Forecast, 2018–2025, el mercado de inteligencia artificial representó más de 4 mil millones de dólares en 2016, y se espera que alcance 169 mil millones de dólares para 2025.

En 2017, China publicó su “Plan de Desarrollo de Inteligencia Artificial de Próxima Generación”, que estableció acciones para convertirse en el líder mundial en inteligencia artificial, con una industria nacional en este campo por valor de casi 150 mil millones de dólares. El Plan tiene tres pasos: en primer lugar, debe ser capaz de seguir el ritmo de toda la tecnología de inteligencia artificial líder, y su aplicación en general, para 2020. En segundo lugar, lograr avances importantes para el año 2025, que permitan cumplir la tercera parte del Plan: convertir a China en líder mundial en el campo de la IA para 2030. Es un plan muy ambicioso y realista.

China ya es líder en financiación de la IA. El año pasado, el 48 por ciento del total de fondos de capital de las nuevas empresas de AI en todo el mundo provino de China, en comparación con el 38 por ciento financiado por los Estados Unidos y el 13 por ciento por el resto del mundo. Este es un salto significativo respecto al 11.3 por ciento del presupuesto mundial que aportó China en 2016.

Aunque se estima que el mercado ruso de IA es solo el 0,7% del mercado mundial, se espera que crezca 40 veces para 2020. “Las estimaciones del mercado ruso son muy diferentes: de varios cientos de millones de rublos a decenas de miles de millones. Este diferencial es principalmente debido al hecho de que la mayoría de las grandes empresas ya están implementando proyectos en el campo de la IA, pero aún no revelan datos sobre inversiones y resultados”, dijo Dmitry Shushkin, CEO de ABBYY Rusia — empresa líder de soluciones para el procesamiento de información intelectual .

Rusia se ha unido recientemente a la creación de estándares internacionales en el campo de la IA. Asumir el desafío de desarrollar estándares de IA es asunto central del nuevo Subcomité 42 del Comité Técnico Conjunto 1 (JTC 1), constituido a su vez por dos organismos de estándares ampliamente respetados, la Organización Internacional de Normalización ( ISO) y la Comisión Electrotécnica Internacional (IEC). (Su nombre completo abreviado ISO es, por lo tanto, ISO / IEC JTC 1 / SC 42.). Con la participación de expertos rusos en la primera etapa, se desarrollarán proyectos en tres estándares. Este acuerdo se alcanzó en una reunión del Subcomité internacional de Normalización en California.

Desde nuestro punto de vista, algunas herramientas basadas en la IA introducidas con el propósito de contrarrestar la criminalidad organizada y el terrorismo pueden potencialmente introducir desequilibrios en la vida social y política y ser herramientas bastante eficientes de guerra psicológica.

Comento varios ejemplos de esto.

  • La Unión Europea está desarrollando una forma de acelerar el tráfico en las fronteras exteriores de la comunidad y aumentar la seguridad mediante un sistema automatizado de control de fronteras, que pondrá a prueba a los viajeros utilizando avatares de detección de mentiras. 
    El sistema IBORDERCTRL se ha configurado para que los viajeros utilicen una aplicación en línea para cargar fotos de su pasaporte, visa y comprobante de fondos, y luego usar una cámara web para responder preguntas de un guardia de fronteras animado por computadora, personalizado según el género, etnia y lengua del viajero. El programa de “detección de mentiras” analiza los micro gestos de los viajeros para averiguar si el entrevistado está mintiendo. El proyecto, que se probará durante un período de seis meses, ha sido posible gracias a una contribución de la UE de aproximadamente 4,5 millones de euros. Pero en un futuro próximo, los detectores de mentiras basados en inteligencia artificial pueden usarse para identificar a supuestos mentirosos políticos, o en reuniones de negocios o fiestas privadas sometidas a vigilancia desde computadoras remotas… Los pequeños gestos que hacemos, como el parpadeo, la dirección de nuestra mirada, los gestos con las manos, el cruce de los brazos, los cambios de cejas y la forma en que se mueven nuestros labios pueden indicar la veracidad o no de lo que estamos diciendo. No son muchos los que pueden leer tales gestos de manera rápida y exitosa, pero la IA pronto podría hacerlo todo más fácil. Esto permitiría activar campañas de influencia basadas en diferentes interpretaciones de los detectores de mentiras con IA.
  • Entre octubre y noviembre de 2018 estuve dos veces en Italia en diferentes conferencias de alto rango. La primera, estuvo dedicada a la comunicación estratégica y políticas migratorias en la conferencia ruso-italiana “Migración moderna: los desafíos internos y externos para Italia, Rusia y la UE” en la Università Mercatorum de Roma, organizada por la Cámara de Comercio de Roma, el 1 de octubre. Allí presenté una ponencia titulada “Strategic communication based on advanced technologies and migration policy”. 
    “Cuando 8.500 inmigrantes ilegales llegan en tres días, está claro que todo está organizado”, dijo Matteo Salvini, ahora ministro de Interior de Italia y el político más popular del país. Salvini aseguró que tenía la intención de demandar al gobierno italiano, así como a las ONG que rescatan a los migrantes en el mar, por “favorecer la inmigración clandestina… Está bastante claro que se está organizando la inmigración clandestina. Así que hemos decidido demandar al gobierno y a los comandantes de la marina y la guardia costera (que participan en estas operaciones)”. La IA es una buena herramienta para encontrar a los verdaderos organizadores de tales actividades, pero también podría ser útil para promover acciones artificialmente dirigidas a grupos objetivos.
  • En noviembre participé en otra conferencia en Nápoles. La “National Conference on Security and Legality” promovida por la Región de Campania, la Procuraduría, el Instituto para los Estudios Políticos, Sociales y Económicos (EURISPES), donde participaron prominentes autoridades del gobierno italiano, magistrados, y académicos italianos y extranjeros. Participé en la sección antiterrorista de la conferencia donde presenté un documento sobre “Los problemas de la Guerra Psicológica Estratégica con terrorismo e inteligencia artificial”. Una vez más, las capacidades de la IA pueden fortalecer las oportunidades de las divisiones antiterroristas, así como, por desgracia, de los terroristas en la realización de diversas operaciones psicológicas y de información. Por ejemplo, estas operaciones pueden difundir de manera extremadamente rápida en Internet videos, fotos y textos provocativos orientados a diferentes audiencias y propiciar una escalada de campañas de desinformación en situaciones de crisis con una participación mínima de recursos humanos.
  • El 10º Encuentro Nacional de la Asociación Brasileña de Estudios de Defensa (ENABED) fue organizado por la Universidad de São Paulo del 3 al 5 de septiembre de 2018 y reunió a varios cientos de especialistas en estudios militares, seguridad internacional y relaciones internacionales, no solo de Brasil sino de otros países de América Latina. En la mesa redonda “Campos de batalla, métodos e instrumentos de guerra desde la perspectiva rusa” traté de analizar algunos aspectos de la analítica predictiva en el marco de la guerra psicológica. El análisis predictivo incluye una variedad de técnicas estadísticas para generar modelos de predicción, aprendizaje automático y minería de datos que analizan eventos actuales e históricos y hacen predicciones sobre eventos futuros. Entre los programas basados ​​en el análisis predictivo con big data, podemos mencionar el programa Open Source Indicators de la Intelligence Advanced Research Project Activity (IARPA), del gobierno de los Estados Unidos, que ha desarrollado el Early Model Based Event Recognition using Surrogates (EMBERS), un sistema de análisis de big data a gran escala para pronosticar eventos sociales significativos en América Latina, entre los que se encuentran disturbios civiles y otros eventos emergentes, sobre la base de un análisis continuo y automatizado de grandes volúmenes de datos disponibles públicamente. El costo de este proyecto es de casi 22 millones de dólares y analiza miles de millones de datos como tweets, consultas de sitios web, cancelaciones de restaurantes e incluso imágenes de satélite.
Esta es una vista del monitor de visualización que posee el Instituto de Tecnología Crítica y Ciencia Aplicada de los Estados Unidos. Fue concebido por un grupo de ingenieros informáticos, expertos en inteligencia artificial, filósofos y gurús de la realidad virtual que consideran que el pronóstico del futuro puede ser un día tan común como el pronóstico del clima, gracias a los avances en el campo de la big data. Ha sido utilizado para pronosticar disturbios en Paraguay, Argentina, Brasil y Venezuela, según el Virginia Tech Daily

Sin embargo, la precisión relativa de los pronósticos de EMBERS con objetivos pacíficos (descritos así por el equipo internacional de los contribuyentes del Proyecto) puede utilizarse para manipular al público objetivo con el fin de demostrar la “inevitabilidad” de un determinado proceso o un evento y sus consecuencias. Esto es solo un “arma de pronóstico ligero”, pero su posible uso militar no fue discutido en el artículo académico que evaluó los resultados de este desarrollo financiado por IARPA.

Mientras tanto, ahora es posible realizar todo tipo de esfuerzos para hacer una corrección científica del futuro a partir del presente, con el uso de “armas de pronóstico pesado”. Por ejemplo, uno u otro programa podría predecir que, como resultado de los disturbios, habrá varias víctimas y alrededor de 10 mil personas acudirán a la manifestación de protesta, que no conducirá al derrocamiento del gobierno. Ciertas estructuras pueden, habiendo recibido la información relevante, tratar de agravar la situación aún más un mes antes del evento, por ejemplo, aumentando el número de víctimas del “régimen sangriento” y agregando cifras más significativas a su número. Por otra parte, los efectos se pueden probar a través del programa apropiado con la subsiguiente corrección de los resultados. Y si no podemos excluir que dichos programas estén en manos de los servicios de inteligencia de Estados Unidos, tampoco podemos excluir su uso por parte de actores no estatales, como las organizaciones terroristas.

Teniendo en cuenta este complejo de posibles consecuencias del uso de la IA en la guerra psicológica para la seguridad internacional en su conjunto y la seguridad psicológica en particular, un grupo de investigadores de Moscú y San Petersburgo inició este año un gran proyecto a largo plazo para el desarrollo de “Metodologías Innovadoras de Seguridad de la Información” con apoyo financiero y material de la Universidad de San Petersburgo. Se han presentado siete solicitudes de subsidios, incluidas las del próximo año, con proyectos como “Inteligencia artificial en el contexto de la seguridad psicológica de Rusia”, “Aspectos lingüísticos y políticos de la seguridad de la información de la Federación Rusa (en el ejemplo del problema del lucha contra el extremismo”, etc.)

Así que se deben invertir unos 60 millones de rublos en estos temas hasta 2021, con un interés especial en el tema de los riesgos y soluciones de la IA en el ámbito de la seguridad psicológica nacional e internacional. Los investigadores de la Universidad de San Petersburgo, la Academia Diplomática, la Academia Presidencial, la Plejanov Universidad Rusa de Economía, la Universidad Técnica y Física de Moscú, la Lomonosov Universidad Estatal de Moscú y los institutos de la Academia de Ciencias de Rusia tienen la oportunidad de lograr buenos resultados en este nuevo pero muy importante ámbito de oportunidades de la investigación práctica aplicada con IA.

Unidos en el GlobalStratCom, las Asociaciones de Estudios Estratégicos internacionales están jugando un papel bastante importante en el desarrollo de equipos internacionales para realizar investigaciones conjuntas, con subvenciones nacionales e internacionales en el campo de la IA.

Al considerar el tema de varios proyectos de subvención actuales y futuros sobre inteligencia artificial, se presta especial atención a las amenazas recientes a la información y a la seguridad psicológica de Rusia que han utilizado inteligencia artificial y que surgen vinculadas a operaciones psicológicas y de información financiadas a largo plazo por actores y estatales no estatales.

Los proyectos tienen en cuenta las mejores prácticas de investigación y desarrollo en los campos de la inteligencia artificial, el análisis de grandes datos, la información y la guerra psicológica, y la información y la seguridad psicológica. El objetivo principal de los proyectos es desarrollar las herramientas para contrarrestar la información destructiva y el impacto psicológico en el individuo, la sociedad y el estado.

Como herramienta de defensa en dicha guerra psicológica, los colaboradores de los proyectos valoran el uso de sistemas intelectuales híbridos para el apoyo a la toma de decisiones basada ​​en mapas cognitivos difusos, el método de jerarquías y las redes neuronales artificiales. Los proyectos también tienen como objetivo crear los modelos matemáticos de apoyo a la toma de desiciones en temas de seguridad psicológica y para la capacitación basada en minería de datos con redes de aprendizaje profundo y sistemas expertos.

Estas investigaciones no se han realizado en Rusia, y solo se han llevado a cabo investigaciones fragmentarias en el extranjero. Sin embargo, documentos recientes de varios países desarrollados y organizaciones internacionales establecen directamente la tarea de llevar a cabo tales proyectos en un futuro próximo.

Los problemas planteados en los proyectos tienen una naturaleza compleja y, para resolverlos, es necesario determinar las consecuencias sociales del uso de la inteligencia artificial en el marco de la Intelligent Physical Worlds (Mundos Físicos Inteligentes, IPW). Para hacer esto, es necesario explorar las posibilidades de la IA en la predicción de eventos socialmente significativos, evaluar las consecuencias socio-psicológicas y políticas del uso de tecnologías avanzadas en IPW, e investigar los motivos del comportamiento de estas tecnologías en los gobiernos bajo ataque, así como entre los ciudadanos (consumidores potenciales y reales de información tóxica difundida por actores destructivos).

En el marco de la solución del problema, se pueden identificar varias tareas de investigación específicas. Entre ellas:

  • Determinar la lista de amenazas actuales y futuras para el público con la ayuda de AI (incluidos los contenidos controlados por operadores y por autónomos, la nueva calidad de la información falsa replicada en formato de audio y video, el impacto multifacético en las campañas políticas, el descrédito de las personas públicas y muchos otros).
  • Examinar las prácticas nacionales en el uso de la IA dirigidas con fines desestabilizadores directos o indirectos dirigidos contra los sistemas políticos nacionales y el orden mundial internacional.
  • Identificar el papel de la IA en la lucha contra el terrorismo y los aspectos informativos y psicológicos del uso de la IA en esta área.
  • Identificar capacidades de análisis predictivo y armas predictivas utilizando AI.
  • Determinar el papel de la IA en la confrontación geopolítica actual.
  • Investigar el impacto ético de la IA en la seguridad internacional.
  • Identificar formas y medios para neutralizar la información específica y la desestabilización psicológica de los sistemas políticos que utilizan la IA.
  • Construcción de modelos de amenazas a la conciencia pública utilizando la inteligencia artificial y el sistema de identificación de dichas amenazas basándose en mapas cognitivos y el método de análisis de jerarquías entrenadas con redes neuronales y algoritmos genéticos (una serie de pasos organizados que describen el proceso que se debe seguir, para dar solución a un problema específico).
  • Realizar una evaluación exhaustiva de la situación, previsiones de su desarrollo y visualización de las posibles amenazas (políticas, militares, de información, etc.).
  • Hacer un pronóstico y un análisis de escenarios sobre la base de identificar causas y efectos con mapas cognitivos.
  • Modular en redes neuronales el cumplimiento y la adaptación en línea de los mapas cognitivos y la evaluación jerárquica basada en los análisis con la ayuda de las redes neuronales de aprendizaje profundo, utilizando minería de textos o de contenidos de internet en general o de de redes sociales en particular (web mining).

La implementación de las tareas del proyecto requiere un enfoque interdisciplinario y por lo tanto de formación de equipos de investigación de especialistas en diversos campos: politólogos, historiadores, matemáticos y especialistas en diversos campos de la informática. Debe estar abierto a la cooperación con investigadores de diferentes países del mundo en esferas de interés mutuo y defensa de la seguridad nacional e internacional frente a fuerzas antisociales y antidemocráticas, como grupos de influencia corruptos, crimen organizado, organizaciones terroristas, etc.

Los proyectos rusos mencionados están abiertos a la colaboración internacional. Dicho enfoque se basa en el hecho obvio de que la información confiable y la seguridad psicológica de un país implican la información confiable y la seguridad psicológica de otros países y de toda la humanidad. El daño a la seguridad psicológica de una nación debido a las acciones de las élites internas o externas egoístas afectan la seguridad psicológica de todo el mundo.


El Doctor en Ciencias y Profesor Evgeny Pashentsev es un destacado investigador de la Academia Diplomática del Ministerio de Asuntos Exteriores de la Federación Rusa, director del Centro Internacional de Estudios Sociales y Políticos, y coordinador de la Red de Gestión de la Comunicación UE-Rusia. Es miembro del Comité de la 14ª Conferencia Internacional sobre Guerra Cibernética y Seguridad — ICCWS 2019 y director de la compilación Guerra Psicológica, Nuevas Tecnologías e Inestabilidad Política en el Mundo Contemporáneo, que será presentada en Sudáfrica, del 28 de febrero al 1 de marzo de 2019; y miembro del comité de la Conferencia Europea sobre el impacto de la inteligencia artificial y la robótica (ECIAIR) que tendrá como sede a Oxford.