AI y prevención de uso maligno

Omar Sanseviero
AI Learners
Published in
3 min readMar 2, 2018

El 20 de Febrero un grupo de investigadores de la industria y la academia se juntaron para discutir y proponer ideas para prepararse para uso malicioso de la Inteligencia Artificial. Entre las instituciones participantes se encontraron la Universidad de Oxford, la Universidad de Cambridge, OpenAI y Yale, entre otros. ¿Por qué debería importarnos esto?

Según la investigación de Oxford Insights, ya hay ocho países con estrategia nacional de Inteligencia Artificial: Canadá, China, Estados Unidos, Singapur, Francia, Reino Unido, Emiratos Árabes Unidos y Japón. En este contexto, uno de los dos países que están iniciando el desarrollo de estrategias de AI es México, y se espera que sea de los primeros 10 en tener una estrategia.

Mapa de https://www.oxfordinsights.com/insights/2018/1/23/aistrategies

En el desarrollo de una estrategia AI se miran cosas como ética, servicios públicos, investigación y desarrollo, educación y capacitación e infraestructura digital. Una parte en la que casi no había investigación previa era en el uso malicioso de AI. En un contexto en el que se está desarrollando estas estrategias, queremos hablar un poco del tema y las conclusiones de este grupo.

Mientras se expande la educación de AI y Machine Learning y se crean herramientas como TensorFlow o Keras que facilitan la implementación de diferentes técnicas, muchas nuevas aplicaciones están surgiendo: desde análisis bancario y traducción de lenguajes hasta análisis y diagnósticos médicos. Mientras ocurre esto, también aumenta el riesgo de uso malicioso de estas herramientas y es importante tener consciencia sobre el tema. En el futuro, se esperan los siguientes cambios:

  • Expansión de amenazas actuales. Con el uso de herramientas de AI, se pueden hacer ataques a un mayor número de objetivos por su naturaleza escalable.
  • Introducción de nuevas amenazas. Ataques que utilicen Inteligencia Artificial podrán lograr cosas que no son prácticas para los humanos.
  • Cambios de los tipos de ataques. Ataques utilizando Inteligencia Artificial tienen el potencial de ser mucho más efectivos y con mayores capacidades para explotar las vulnerabilidades.

¿Qué tipos de ataques nos podemos encontrar? Explotación de vulnerabilidades de humanos. Por ejemplo, utilizar Procesamiento de Lenguaje Natural para hablar como si fuera una persona. Ataques a sistemas de AI utilizando ejemplos adversariales. Pero no sólo es en el mundo cibernético, también está la posibilidad de armas que utilicen AI (enjambres de miles de drones), ataques que causen el choque de coches autónomos, propaganda dirigida escalable, videos que manipulen y mucho más. La Inteligencia Artificial actual tiene la capacidad de entender el comportamiento humano, y esto es una poderosa herramienta que debe ser utilizada con cuidado.

Algunas de las recomendaciones que propone este grupo son:

  • Entender la naturaleza dual de la Inteligencia Artificial. Ésta puede tener un impacto altamente positivo pero también extremadamente negativo. Como comunidad científica, debemos empezar a tener más en cuenta potenciales usos de lo que desarrollamos, y tener esto como un punto esencial durante el desarrollo. También debemos empezar a trabajar con los políticos para concientizar sobre el tema y preparar a nuestra sociedad para el impacto de estas tecnologías. Un ejemplo de la naturaleza dual es el uso de filtros de información. Estos te pueden ayudar a filtrar noticias falsas siendo difundidas, pero también pueden ser usadas para manipular la opinión pública.
  • Aprender sobre ciberseguridad. Aunque ya hay mucha investigación de ciberseguridad que puede ser aplicada a Inteligencia Artificial, la comunidad de desarrolladores y las compañías que usan AI todavía no han integrado sus sistemas de AI con estas técnicas.
  • Aumentar la discusión. Actualmente sólo la gente de tecnología entiende partes de Inteligencia Artificial, pero hay docenas de miles de directores de compañías, politicos y personas de diferentes áreas que hacen decisiones a partir de un conocimiento muy superficial de lo que AI implica realmente.
  • Promover una cultura de responsabilidad y transparencia. Es importante tener una cultura en la que la investigación sea abierta para permitir un análisis de riesgo más concreto. También se debe tener una cultura en la que las expectativas, normas y regulaciones sean conocidas.

Aunque en este momento el futuro de la Inteligencia Artificial es incierto, ya hay muchas posibilidades para su uso malicioso. Mientras aumentan sus aplicaciones en diferentes contextos sociales, como desarrolladores de AI, debemos tener mayor conciencia del posible impacto de lo que hacemos y los fines para los que la desarrollamos.

--

--