El nacimiento de la máquina de propaganda de IA convertida en arma (Traducción)

Artículo original: https://scout.ai/story/the-rise-of-the-weaponized-ai-propaganda-machine

Hay una nueva máquina de propaganda automatizada conduciendo la política global. ¿Cómo funciona y qué significará esto para el futuro de la democracia?

Autores: Berit Anderson y Brett Horvath

Ilustración: Cody Fitzgerald

“Esta es una máquina de propaganda. Está orientando individualmente a las personas para engancharlas en torno a una idea. Es un nivel de ingeniería social que nunca he visto antes. Están conquistando a la gente, manteniéndola atada emocionalmente para nunca dejarla ir,” dijo el profesor Jonathan Albright.

Albright, profesor asistente y científico de datos en la Universidad de Elon, empezó a indagar en los sitios de noticias falsas después de que Donald Trump fue elegido presidente. Mediante una extensa investigación y a partir de entrevistas con Albright y otros expertos claves en el tema, incluyendo a Samuel Wooley, Jefe de investigaciones del Proyecto de Propaganda Computacional de la Universidad de Oxford, y a Martin Moore, Director del Centro para el Estudio de los Medios, Comunicación y Poder del Kings College, se hizo claro para Scout que este fenómeno fue mucho más que una simple historia de noticias falsas. Fue una pieza de un mucho más grande y oscuro rompecabezas — una máquina de propaganda de IA convertida en arma, empleada para manipular nuestras opiniones y comportamientos, y promocionar una agenda política específica.

Aprovechando la manipulación emocional automatizada, enjambres de bots, dark posts en Facebook, tests A/B y redes de noticias falsas, una compañía llamada Cambrige Analytica ha activado una máquina invisible que se aprovecha de las personalidades de los votantes individuales para generar grandes cambios en la opinión pública. Anteriormente, muchas de estas tecnologías han sido usadas de manera individual, alcanzando ciertos efectos, pero juntas forman una máquina de manipulación del votante casi impenetrable que está convirtiéndose rápidamente en el nuevo factor de decisión de las elecciones alrededor del mundo.

Más recientemente, Analytica ayudó a la elección de Donald Trump, aseguró una victoria para la campaña Brexit Leave, y lideró la campaña de Ted Cruz en el 2016, llevándolo desde los últimos puestos de las primarias del GOP (Great Old Party) hacia los primeros.

La compañía es propiedad de y está controlada por intereses conservadores y de la alt-right, profundamente entrelazados con la administración Trump. La familia Mercer es propietaria principal de Cambridge Analytica y fue una de los mayores donantes de la campaña. Steve Bannon, además de actuar como el Jefe de Estrategia y como miembro del Consejo de Seguridad Nacional, es parte de la junta de Cambridge Analytica. Hasta hace poco, el Jefe de Tecnología (CTO) de Analytica fue el Jefe de Tecnología de la Convención Nacional Republicana.

Debido presuntamente a sus alianzas, Analytica ha declinado trabajar con cualquier campaña demócrata –al menos en los EE.UU. Sin embargo, está en conversaciones para ayudar a Trump a gestionar la opinión pública alrededor de sus políticas presidenciales y para expandir las ventas de la Organización Trump. Cambridge Analytica está ahora adentrándose agresivamente en los mercados comerciales de EE.UU y manteniendo reuniones con partidos y gobiernos de derecha en Europa, Asia y América Latina.

Cambridge Analytica no es la única compañía que podría hacer esto –pero es la más poderosa actualmente. Comprender a Cambridge Analytica y la más grande Máquina de Propaganda de Inteligencia Artificial (IA) es esencial para cualquiera que quiera entender el poder político moderno, construir un movimiento o evitar ser manipulado. Lo que representa la máquina de propaganda de IA convertida en arma se ha hecho pre-requisito para el éxito político en un mundo de polarización, aislamiento, trolls y dark posts.

Ha habido una ola de reportajes sobre la misma Cambridge Analytica y una cobertura sólida de los aspectos individuales de la máquina –bots, noticias falsas, microtargeting –, pero ninguno hasta ahora (que hayamos visto) que retrate el inmenso poder colectivo de estas tecnologías o el aterrador nivel de influencia que ellas probablemente tengan sobre las futuras elecciones.

En el pasado, la mensajería política y las batallas de propaganda fueron una carrera de armas para militarizar la narrativa por medio de los nuevos medios –libradas en lo impreso, en la radio y en la TV. Esta nueva ola ha traído al mundo algo exponencialmente más insidioso –propaganda personalizada, adaptativa y, en última instancia, adictiva. Silicon Valley gastó los últimos diez años construyendo plataformas cuyo estado natural final es la adicción digital. En el 2016, Trump y sus aliados las secuestraron.

Hemos entrado en una era política. En Scout creemos que el futuro del diálogo constructivo y cívico, y el futuro de unas elecciones libres y abiertas, depende de nuestra habilidad para comprenderla y anticiparla.

Bienvenidos a la era de Propaganda de IA convertida en arma.

Parte 1: La vigilancia del Big Data se combina con la psicología computacional

Cualquier compañía puede agregar y adquirir grandes datos, pero Cambridge Analytica ha desarrollado un modelo para traducir esos datos en perfiles personales usados para predecir, y en última instancia, cambiar tu comportamiento. El modelo en sí mismo fue desarrollado por un profesor de psicología de Cambridge para copiar la innovadora y original investigación de sus colegas por medio de cuestionables métodos que violaron los términos de servicio de Amazon. Construida sobre estas fuentes, Cambridge Analytica parece lista para capturar y comprar cualquier información que sea necesaria para alcanzar sus fines.

En 2013, el doctor Michal Kosinski, para entonces candidato a PhD en el Centro de Psicometría de la Universidad de Cambridge, lanzó un innovador estudio que anunciaba un nuevo modelo que él y sus colegas habían llevado años desarrollando. Relacionando los asuntos de los likes de Facebook con sus puntajes de OCEAN –un cuestionario estándar de personalidad usado por los psicólogos– el equipo fue capaz de identificar el género, la sexualidad, las creencias políticas y los rasgos de personalidad de un individuo basados solamente en los likes que aquellas personas habían escogido.

Image Credit: Michal Kosinski, David Stillwell, and Thore Graepel

De acuerdo con la revista zuriqués Das Magazine, que había hecho el perfil de Kosinski a finales del 2016, “con meros 10 ‘likes’ este modelo puede evaluar mejor el carácter de una persona que un compañero de trabajo promedio. Con setenta, el modelo puede ‘conocer’ un sujeto mejor que un amigo; con 150 likes, mejor que sus familiares. Con 300 likes, la máquina de Kosinski puede predecir el comportamiento de un sujeto mejor que su pareja. Con aun más likes puede exceder el conocimiento de lo que las personas creen que saben sobre ellas mismas.”

No mucho tiempo después, Kosinski fue abordado por Aleksandr Kogan, profesor del Departamento de Psicología de la Universidad de Cambridge, sobre la concesión de licencias de su modelo a SCL Elections, una compañía que afirmaba que su especialidad era manipular elecciones. La oferta podría haber significado un importante pago para el laboratorio de Kosinski. Sin embargo, declinó, preocupado sobre de las intenciones de la compañía y los efectos posteriores que todo esto podría conllevar.

Le había tomado años a Kusinski y sus colegas desarrollar ese modelo, pero con sus métodos y sus hallazgos ahora de conocimiento público, hubo poco que hacer para que SCL Elections no los copiara. Y parece que hicieron exactamente eso.

De acuerdo con una investigación de The Guardian, a comienzos de 2014, justo unos meses después de que Kosinski declinara la oferta, SCL se asoció con Kogan. Como parte de su relación, Kogan pagó un dólar a cada uno de los trabajadores de Amazon Mechanical Turk para que llenaran un cuestionario. Sólo había una exigencia: para realizar el quiz, los usuarios debían permitir el acceso a todas sus informaciones de Facebook. Estaban avisados de que los datos podrían ser usados para su investigación. El trabajo fue reportado a Amazon por violar los Términos de Servicio de la plataforma. Muchos trabajadores no se dieron cuenta: de acuerdo con los documentos revisados por The Guardian, “Kogan también capturó los mismos datos de los amigos involuntarios de cada trabajador.”

Los datos reunidos por el estudio de Kogan fueron el nacimiento de Cambridge Analytica, que salió de SCL Elections poco tiempo después. El nombre, por lo menos metafóricamente, era un guiño a la obra de Kogan –y un codazo a Kusinski.

Pero ese temprano tesoro de datos de usuarios fue sólo el inicio –sólo la semilla que Analytica necesitó para construir su propio modelo y analizar las personalidades de los usuarios sin tener que depender del largo test OCEAN.

Después de una exitosa prueba de concepto y respaldada por inversores ricos y conservadores, Analytica salió de compras en la búsqueda de datos personales según las edades, obteniendo información sobre sus hábitos de compra, propiedad de la tierra, ubicación de la iglesia a la que asiste, las tiendas visitadas, las revistas a las que se está suscrito –todo lo cual está a la venta por medio de una amplia gama de intermediarios y organizaciones de terceros que venden información acerca de ti. Analytica añadió estos datos a los roles de los votantes, los datos en línea disponibles públicamente –incluyendo los likes de Facebook– y puso todo esto dentro de su modelo predictivo de la personalidad.

The Power of Big Data and Psychographics

A Nix le encanta presumir que el modelo de personalidad de Analytica ha permitido crear un perfil personal para cada adulto en los EE.UU. –220 millones de ellos, cada uno con hasta 5000 entradas de datos. Y aquellos perfiles están siendo continuamente actualizados y mejorados según los datos que publicas en línea.

Albright cree también que tus publicaciones en Twitter y Facebook están siendo recolectadas e integradas en los perfiles de personalidad de Cambridge Analytica. “Twitter y también Facebook están siendo usados para recolectar una gran cantidad de datos sensibles, pues la gente es apasionada, responde, retwitea, y además añade todos sus pensamientos y todo su historial en estos asuntos” explica Albright.

Parte 2: Scripts de compromiso automatizado que se aprovechan de tus emociones

Recolectar masivas cantidades de datos acerca de la personalidad de los votantes puede parecer inquietante, pero esto no es lo que actualmente distingue a Cambridge Analytica. Para Analytica y otras compañías como ellos, es lo que hacen con los datos lo que en realidad importa.

Image Credit: Cambridge Analytica

“Tu comportamiento es conducido por tu personalidad y, en realidad, entre más puedas entender la personalidad de la gente como conductores psicológicos, más se puede empezar realmente a aprovechar el por qué y el cómo la gente toma sus decisiones,” explicó Nix a Sasha Issenburg de Bloomberg. “Llamamos conductual a este microtargering y es en realidad nuestra salsa secreta, si tu quieres. Esto es lo que estamos trayendo a América.”

Image Credit: Cambridge Analytica

Usando estos antecedentes, o perfiles psicológicos como Analytica los llama, Cambridge Analytica no sólo identifica cuáles votantes tienen más probabilidades de oscilar hacia sus causas o candidatos; usan esa información para predecir y por tanto cambiar su comportamiento futuro.

Como Vice reportó recientemente, Kosisnki y un colega están trabajando en la actualidad en un nuevo conjunto de investigaciones, aún sin ser publicadas, que abordan la efectividad de estos métodos. Sus tempranos hallazgos: usando la orientación de la personalidad, las publicaciones de Facebook pueden captar hasta 63 por ciento más de clicks y alcanzar más de 1400 conversiones.

Scout se acercó a Cambridge Analytica con una detallada lista de preguntas acerca de sus tácticas comunicativas, pero la compañía no aceptó responder o hacer comentario alguno sobre cualquiera de sus tácticas.

A pesar de ello, los investigadores de la tecnología y del ecosistema mediático que han estado siguiendo las actividades de la comunicación política de Cambridge Analytica han desenterrado una red en línea expansiva y adaptativa que automatiza la manipulación de los votantes a una escala nunca antes vista en la comunicación política.

“Ellos [la campaña de Trump] estaban usando 40–50.000 variantes diferentes de un anuncio que estaba midiendo respuestas continuamente, adaptándose y evolucionando basados en esa respuesta,” dijo a The Guardian a comienzos de diciembre Martin Moore, director del Centro para el Estudio de Medios, Comunicación y Poder del Kings College. “Todo está hecho de una manera completamente opaca y pueden gastar tanto dinero como quieran en determinados lugares, ya que te puedes concentrar en un radio de 5 millas.”

Mientras los encuestadores tradicionales pueden preguntar a una persona cómo, sinceramente, tiene pensado votar, Analytica confía no en lo que las personas responden sino en lo que hacen, siguiendo sus movimientos e intereses en linea y entregando anuncios multivariados para cambiar el comportamiento de una persona, aprovechándose de los rasgos individuales de su personalidad.

“Por ejemplo”, Nix escribió el año pasado un artículo de opinión acerca del trabajo de Analytica en la campaña de Cruz, “nuestro modelo de problemas identificó que hubo un pequeño bolsillo de votantes en Iowa que sentía firmemente que los ciudadanos debían ser obligados por la ley a mostrar una identificación con foto en las mesas de votación.”

“Aprovechando nuestros otros modelos de datos, pudimos asesorar la campaña sobre cómo abordar este tema con individuos específicos a partir de sus perfiles únicos, con el fin de utilizar este tema como un punto de presión política que los motivara a ir a votar por Cruz. Para las personas del grupo de personalidad “Temperamental”, que tienden a no gustar del compromiso, la mensajería sobre el tema debía apuntar a que mostrar tu identificación para votar es ‘tan fácil como comprar una lata de cerveza’. Mientras el mensaje correcto para la gente del grupo ‘Tradicionalista Estoico’, que ha mantenido firmemente opiniones convencionales, es que mostrar la identificación para votar es simplemente parte del privilegio de vivir en una democracia.”

Para Analytica, la retroalimentación es instantánea y la respuesta automatizada: ¿este determinado votante indeciso en Pennsylvania hizo click en el anuncio que atacaba la negligencia de Clinton sobre su servidor de correo? ¿Si? Entregarle entonces más contenido que enfatice las fallas de su responsabilidad personal. ¿No? El script automático intentará con un titular diferente, tal vez uno que juegue con un rasgo de personalidad distinto –digamos, la tendencia de los votantes a ser agradables con las figuras de autoridad. Tal vez: “Los más importantes oficiales de inteligencia están de acuerdo: los correos electrónicos de Hillary comprometieron la seguridad nacional”.

Mucho de todo esto es realizado a través de los dark post de Facebook, que son sólo visibles para los destinatarios.

En base a las respuestas de los usuarios frente a estas publicaciones, Cambridge Analytica fue capaz de identificar cuáles mensajes de Trump estuvieron resonando y en dónde. Esa información también fue usada para organizar el itinerario de viaje de la campaña. ¿El 73 por ciento de los votantes-objetivo en el Condado de Kent, Michigan, hicieron click en alguno de los tres artículos sobre la recuperación de empleos? Programar una reunión de Trump en Grand Rapids que se concentre en la recuperación de la economía.

Los analistas políticos de la campaña de Clinton, que estaban basando sus tácticas en los métodos tradicionales de votación, rieron cuando Trump programó eventos de campaña en el llamado muro azul –un grupo de estados que incluye a Michigan, Pennsylvania y Wisconsin, tradicionalmente inclinados hacia los demócratas. Pero Cambridge Analytica entrevió que tenían una posibilidad a partir del compromiso medido con las publicaciones de Facebook. Fue ese pequeño margen en Michigan, Pennsylvania y Wisconsin con el que Trump ganó las elecciones.

Image Credit: Ali Zifan/Wikimedia Commons

Los dark post fueron también usados para desalentar la participación electoral entre grupos clave de votantes demócratas. “En esta elección, los dark post fueron utilizados para desalentar el voto afro-americano,” escribió el periodista y miembro de Open Society, McKenzie Funk, en un editorial del New York Times. “Según Bloomberg, la campaña de Trump publicó anuncios recordándole a ciertos votantes negros seleccionados la infame afirmación de ‘super depredadores’ pronunciada por Hillary Clinton. Apuntaron a Pequeño Haiti, un barrio de Miami, con mensajes acerca de los problemas de la Fundación Clinton en Haiti luego del terremoto de 2010”.

Debido a que los dark posts sólo son visibles para los destinatarios asignados, no hay forma, para nadie fuera de Analytica o de la campaña de Trump, de seguir el contenido de esos anuncios. En este caso, no hubo supervisión de la SEC (Securities and Exchange Comission), ni escrutinio público de los ataques de Trump con sus anuncios. Sólo el rápido movimiento ocular de millones de usuarios individuales que escanean sus feeds de Facebook.

En las semanas que presiden a la elección final, una campaña puede publicar de 10 a 100 millones de dólares en dark post sobre la campaña, dirigidos sólo a algunos pocos millones de votantes en distritos indecisos, sin que nadie lo pueda saber. Este puede ser el lugar donde nacen los trastornos de las futuras elecciones “cisne-negro”i.

“Esas compañías”, dice Moore, “han encontrado una forma de transgredir 150 años de legislación que hemos desarrollado para hacer unas elecciones justas y abiertas.”

Parte 3: Una red de propaganda para acelerar las ideas en minutos

Mientras tanto, sorprendido por los resultados de la carrera presidencial de 2016, Albright empezó a indagar en el ‘problema de las noticias falsas’. Como una parte de su investigación, Albright escudriñó 306 sitios de noticias falsas para determinar exactamente cómo estaban conectados uno al otro y cómo a su vez estaban conectados al ecosistema principal de noticias. Lo que encontró no tenía precedentes –una red de 23.000 páginas y 1.3 millones de hipervínculos.

Image Credit: Jonathan Albright

“Los sitios de noticias falsas de la red hiper-sesgada #MCM,” escribe Albright, “tienen un muy pequeño tamaño de nodo –esto significa que están vinculados fuertemente a los principales medios, redes sociales y fuentes informativas (la mayoría de las cuales están en el ‘centro’ de la red), pero pocos sitios de su grupo de pares están enviando enlaces de regreso”.

Estos sitios no son administrados u operados por cualquier entidad individual, dice, pero juntos han sido capaces de prostituir el Search Engine Optimization, incrementando la visibilidad de lo falso e influyendo en las noticias cada vez que alguien busca en Google un término en línea relacionado con la elección –Trump, Clinton, Judíos, Musulmanes, aborto, Obamacare.

“Esta red,”, escribió Albright en una entrada en donde exploraba sus hallazgos, “funciona bajo demanda para esparcir información falsa, hiper-sesgada, y cargada políticamente.”

Aún más chocante para él, sin embargo, fue que esta red de noticias falsas creara una poderosa infraestructura para compañías como Cambridge Analytica, permitiendo rastrear votantes y refinar su manipulacion personalidad con modelos de orientación.

“Yo escudriñé los rastreadores en estos sitios y estaba absolutamente estupefacto. En cada momento en el que a alguien le gusta una de estas publicaciones en Facebook o visita algunos de estos sitios web, los scripts están siguiéndole por la web. Y esto permite a la minería de datos y a compañías influenciadoras como Cambridge Analytica apuntar precisamente a los individuos, seguirlos en la web y enviarles mensajes políticos altamente personalizados.”

La web de noticias falsas y sesgadas que Albright descubrió, crea una ola de propaganda que Cambridge Analytica podría montar y luego amplificar. Cuanto más falsa sea la noticia con la cual los usuarios se involucren, más adictivos se pueden hacen los algoritmos de compromiso personal de Analytica.

¿El votante 35423 hizo click en una historia falsa acerca del anillo de tráfico sexual de Hillary? Vamos a conseguir que se involucre con más cuentos de su supuesta historia de asesinato y tráfico sexual.

La sinergia entre redes de contenido falso, pruebas de mensaje automatizado y perfilado de la personalidad, rápidamente se esparcirán a otros medios digitales. La más reciente investigación de Albright se centró en una inteligencia artificial que automáticamente crea videos de Youtube acerca de noticias y eventos actuales. La IA, que reacciona a los temas que son tendencia en Facebook y Twitter, junta imágenes y subtítulos con una voz generada por computadora. En unos pocos días, grabó casi 80.000 videos a través de 19 diferentes canales.

Dado su rápido desarrollo, la comunidad tecnológica necesita anticipar cómo la propaganda de la IA pronto será empleada para los mensajes de manipulación emocional, realidad virtual y realidad aumentada.

Parte 4: Un bot de la Gestapo para debatir publicamente la vigilancia.

Si las noticias falsas crearon el andamio para esta nueva máquina de propaganda política automatizada, los bots, o perfiles falsos en las redes sociales, se han convertido en sus soldados de a pie –un ejército de robots políticos utilizados para controlar las conversaciones en las redes sociales y silenciar e intimidar a periodistas y otras personas que pueden socavar sus mensajes.

Samuel Woolley, Director de investigación del Proyecto de Propaganda Computacional de la Universidad de Oxford y miembro del proyecto Google Jigsaw, ha dedicado su carrera a estudiar el papel de los bots en la organización política en línea –quiénes los crearon, cómo son utilizados y con qué fin.

La investigación de Woolley y de su equipo de trabajo en Oxford en el periodo previo a las elecciones de 2016 encontraron que los mensajes pro-Trump dependían en gran medida de los bots para distribuir noticias falsas y desacreditar a Hillary Clinton. Para el día de la elección, los bots de Trump superaban a los de ella en 5 a 1.

“El uso de cuentas automatizadas fue deliberado y estratégico a lo largo de la elección, más claramente con los programadores y activistas pro-Trump, quienes cuidadosamente ajustaron la sincronización de la producción de contenidos durante los debates, colonizando estratégicamente los hashtags pro-Clinton y por tanto incapacitando las actividades después del día de elecciones,” reportó el equipo el equipo de Wolley en el estudio.

No hay forma de saber con seguridad si Cambridge Analytica fue responsable de subcontratar la creación de esos bots a favor de Trump. “En las democracias occidentales,” dice Woolley, “los bots han sido a menudo comprados o construidos por subcontratistas de los principales equipos de contratistas digitales porque hay menos necesidad de reportar esas capas profundas de los trabajadores satélites de la campaña a las comisiones electorales.”

Sin embargo, si alguna persona por fuera de la campaña de Trump está calificado para especular es Woolley. Dirigido por el doctor Philip Howard, el investigador principal del equipo, Woolley y sus colegas han rastreado el uso de bots en la organización política desde 2010. Ahí es cuando Howard, inmerso completamente en investigar el papel que jugó Twitter en la Primavera Árabe, observó por vez primera los miles de bots utilizados para cooptar los hashtags de los manifestantes.

Curiosos, él y su equipo empezaron a llegar a hackers, creadores de bots y campañas políticas para conocerlos e intentar entender su trabajo y motivaciones. Eventualmente, aquellos creadores vendrían a producir una red informal de casi de 100 informantes que han mantenido a Howard y sus colegas informados sobre esos bots en los últimos años.

En poco tiempo, Howard y su equipo estaban haciendo caso omiso de las campañas políticas con bots de los propios creadores. Mientras más y más importantes figuras políticas empezaban a utilizar botnets como una herramienta más en sus campañas, Howard, Woolley y el resto de su equipo estudiaron la acción que se desarrollaba.

El mundo que estos informantes revelaron es el de una red internacional de gobiernos, consultorías (a menudo con propietarios o altos directivos a un solo nivel por debajo de los actores oficiales del gobierno), e individuos que construyen y mantienen redes masivas de bots para amplificar los mensajes de los actores políticos, propagando mensajes en contra de sus oponentes y silenciando a aquellos cuyos puntos de vista o ideas podrían amenazar a estos mismos actores políticos.

Los gobiernos de China, Irán y Rusia emplean a sus propios expertos en redes sociales y pagan pequeñas cantidades de dinero a un gran número de personas para generar mensajes a favor del gobierno,” escribieron Howard y los co-autores en el 2015, en un documento de investigación acerca del uso de bots en las elecciones de Venezuela.

Dependiendo de en cuál de esas tres categorías caen los creadores de bots –gobierno, consultoría o individuo– es muy probable que estén motivados por creencias políticas, ya que esta es la oportunidad de subastar sus redes de influencia digital al mejor postor.

No todos los bots son creados de igual forma. Por lo común, un bot de Twitter es literalmente un robot –a menudo programado para retuitear cuentas específicas que ayuden a popularizar ideas o puntos de vista específicos. También, responden frecuentemente de manera automática a los usuarios de Twitter que utilizan ciertas palabras clave o hashtags –por lo general con calumnias pre-escritas, insultos o amenazas.

Los bots de gama alta, por otro lado, son más análogos, operados por gente real. Asumen falsas identidades con personalidades distintas y sus respuestas a otros usuarios en línea son específicas, intentando cambiar sus opiniones o las de sus seguidores, y atacando sus puntos de vista. Tienen amigos en línea y seguidores. También tienen menos probabilidad a ser descubiertos –y sus cuentas desactivadas– por Facebook o Twitter.

Woolley estima que un individuo trabajando por su cuenta puede construir y mantener hasta 400 de estos sofisticados bots en Twitter; en Facebook, en donde son más efectivos identificando y cerrando cuentas falsas, un individuo puede administrar 10 o 20.

Como resultado, estos botnets de alta calidad son a menudo empleados para múltiples campañas políticas. Durante el referendo del Brexit, el equipo de Oxford observó cómo una red de bots, previamente utilizados para influenciar la conversación sobre el conflicto israelí/palestino, fue reactivada para luchar por la campaña del Sí. Los perfiles individuales fueron actualizados para reflejar el nuevo debate y sus eslóganes personales cambiados para unirse con sus nuevas alianzas –y luego se fueron lejos.

El ejército de bots ruso ha sido asunto de un escrutinio particular desde que un reporte especial de la CIA reveló que Rusia había estado trabajando para influenciar la elección a favor de Trump. Recientemente, la reportera/comediante Samantha Bee viajó a Moscú para entrevistar a dos operadores de trolls pagados por Rusia.

Vestidos con máscaras para proteger sus identidades, los dos hablaron con Bee sobre cómo y por qué ellos estaban utilizando sus cuentas durante las elecciones de EE.UU. Le dijeron a Bee que ellos posan como americanos en línea y apuntan a sitios como The Wall Street Journal, The New York Post, Facebook y Twitter. Su objetivo, dijeron, es “mandar al carajo” a otros usuarios de las redes, cambiar sus opiniones, y silenciar a sus oponentes.

O, para ponerlo en las palabras del Troll ruso #1, “cuando tu oponente solamente… cállate.”

la máquina de propaganda de IA convertida en arma

La elección de 2016 en los EE.UU. terminó, pero la la máquina de propaganda de IA convertida en arma apenas está calentando. Y mientras cada uno de sus componentes deberían preocupar por sí mismo, en conjunto representan la llegada de una nueva era de los mensajes políticos –un muro de metal entre ganadores y perdedores de campañas que sólo puede ser construido reuniendo más datos, creando mejores análisis de personalidad, agilizando el desarrollo de compromiso de IA y contratando más trolls.

En el momento, Trump y Cambridge Analytica están aventajando a sus oponentes. Entre más datos recopilen sobre las personas, Analytica, y por extensión la presidencia de Trump, más se beneficiarán de los efectos de la red en sus trabajos –y lo más difícil será defenderse de sus mensajes en el tribunal de la opinión pública.

Cada Tweet que se replique más allá de las cuentas @realDonaldTrump y @POTUS, anunciando y defendiendo las movidas de la administración, se encuentra con un coro de protestas y argumentos. Pero incluso ese compromiso negativo se convierte en un activo valioso para la administración Trump, ya que cada tweet impulsivo puede ser tratado como un experimento psicográfico.

Las primeras semanas de Trump en el cargo pueden haber parecido torpes, pero ellas representan una clara señal de lo que se debe esperar de la presidencia de Trump –una orden ejecutiva diseñada para enfurecer y distraer a sus oponentes mientras él se mueve para desmontar el poder de la rama judicial, instalar a Steve Bannon, miembro de la junta de Cambridge Analytica, en el Consejo de Seguridad Nacional, y emitir una serie de órdenes mordaza a las agencias federales.

Es probable que Cambridge Analytica asegure más contratos con las agencias federales y que se imponga en las etapas finales de las negociaciones para empezar a manejar las comunicaciones digitales de la Casa Blanca en la administración Trump. ¿Qué nuevos tipos de orientación de predicción de la personalidad serán posibles con el acceso potencial a los datos en EE.UU., de los votantes del IRS, del Departamento de Seguridad Nacional o de la NSA?

“Lenin quizo destruir el Estado, y ese es también mi objetivo. Quiero derrumbar cada cosa y destruir todo el establishment actual,” dijo Bannon en 2013. Sabemos que Steve Bannon adhiere a la teoría de la historia donde un mesiánico ‘Guerrero Gris’ consolida el poder y rehace el nuevo orden. Aupado por el éxito del Brexit y por la victoria de Trump, Breitbart (que Bannon maneja) y Cambridge Analytica (en la cual Bannon tiene asiento en su junta) está ahora llevando noticias falsas y propaganda automatizada para apoyar a los partidos de extrema derecha en por lo menos Alemania, Francia, Hungaria y la India, así como en algunas partes de Suramérica.

Nunca un movimiento político internacional y radical había tenido la precisión y el poder de este tipo de tecnología propagandística. La respuesta a si los líderes, ingenieros, diseñadores e inversores responden o no a esta amenaza determinará los aspectos más importantes de la política global en un futuro previsible.

El futuro de la política no será por tanto una guerra de candidatos o incluso de dinero en efectivo. Y ni siquiera se trata del big data, como algunos arguyen. Todos tendrán acceso al big data –como Hillary lo tuvo en la elección de 2016.

Desde ahora, el factor distintivo entre aquellos que ganan elecciones y aquellos que las pierden será cómo un candidato utiliza esos datos para refinar los algoritmos de sus máquinas de aprendizaje y sus tácticas de compromiso automático. Las elecciones en 2018 y 2020 no serán una contienda de ideas, sino una batalla de cambio automático de comportamiento.

La pelea por el futuro será una guerra de poder respecto al aprendizaje de la máquina. Se llevará a cabo en línea, en secreto, y con tu ayuda involuntaria.

Cualquiera que quiera actuar por un cambio necesita entender esta nueva realidad. Es sólo entendiendo esto –y construyendo mejores sistemas de compromiso automatizado que promueva una pasión humana genuina más que una manipulada — que otros candidatos y otras causas alrededor del mundo serán capaces de competir.

Notas del traductor

i“(…) metáfora elaborada por el pensador Nassim Nicholas Taleb para explicar un suceso que está fuera del ámbito de las expectativas normales de la ciencia, la economía y otras ramas del saber. Es más, se entiende que son eventos altamente improbables e impredecibles y que acarrean un impacto masivo en el contexto que ocurre.” Tomado de: http://www.elnuevodia.com/opinion/columnas/uncisnenegroelectoral-columna-2257214/

Artículos relacionados: