Cuando las máquinas nos defiendan

Javi Rameerez
Saturdays.AI
Published in
5 min readSep 6, 2019
Photo by Bernard Hermant on Unsplash

¿Cómo le enseñarías lo que significa “privacidad” a una máquina?

Si eres parte de los afortunados que cuentan con algún tipo de formación técnica o en programación, quizá estés tentado de responder a esa pregunta con alguna regla simple.

Se me ocurre –quizá– que una de las posibles soluciones que alguien se podría estar imaginando ahora en la cabeza podría ir por los derroteros de “pues que tus datos sean públicos está mal, y que sean privados está bien”. La realidad, como mucho en la vida, es algo más compleja.

En el mundo real hay muchos matices éticos. Matices que tú y yo manejamos, porque somos humanos, pero que un ordenador es a priori incapaz de entender. No todo es blanco o negro: hay una escala amplísima de grises; y dentro de esa propia escala pueden existir opiniones en conflicto de personas distintas.

Así que: ¿qué demonios es la privacidad humana y cómo leches le enseñamos este concepto a un ordenador?

Estas fueron algunas de las preguntas que me hice cuando empecé a estudiar Inteligencia Artificial en AI Saturdays, y a las que meses más tarde terminaría dando respuesta gracias al curso. Pero para entender cómo llegué a la solución, primero tenemos que comprender el camino.

De cero a inteligencia artificial

Como para tantos, en algún momento la IA fue algo incomprensible para mí. Magia negra, si me hubierais preguntado por aquel entonces.

Con un background técnico podía entender que aquello tendría sus fórmulas matemáticas y tal, y que de alguna manera todo eso tendría sentido, pero era en apariencia inalcanzable para un simple mortal.

Hasta que llegó AI6.

Si estáis leyendo esto ya sabréis de qué va, pero por si hay algún perdido: AI Saturdays (AI6) es un grupo de estudio –al más puro estilo bootcamp– en el que intentan hacer accesible la formación en inteligencia artificial de calidad.

Y os prometo que no me pagan por decir esto, pero lo consiguen.

Según con lo que ya vengas aprendido de casa, empiezas aprendiendo a usar los modelos de machine learning más sencillos, o directamente entras a tope con redes neuronales si ya tenías algún conocimiento previo. Habréis notado que no he dicho “empiezas a estudiar” sino “empiezas aprendiendo a usar”. Si eres de los que les gusta zampar teoría abstracta que nunca va a aplicar, ni te molestes. Para de leer ahora mismo. En AI6 te metes las manos en el barro y programas inteligencia artificial desde el primer día.

Aunque quizá el punto más guay del bootcamp no es la formación, ni los compañeros, ni los profesores ni organizadores, de los que podría hablar maravillas durante horas. Lo más genial de AI6 tiene dos palabras: demo day.

La cuenta atrás para entregar un proyecto de IA real

Hacia la mitad del curso, el reloj empieza a hacer “tic-tac”.

Los 4 meses terminan con un día en el que todos los participantes, por grupos, presentan un proyecto de inteligencia artificial 100% real. Algo que ellos mismos han investigado, construido y que funciona. La prueba del algodón para saber si realmente estás preparado para generar un impacto usando IA para automatizar soluciones inteligentes a problemas reales. Vienen muchas personas importantes de la industria, quizá incluso investigadores o directores de grandes empresas; todos relacionados con el mundo de la IA y el data science, y tu objetivo es presentar tu proyecto ante ellos.

Javi Ramírez (@rameerez) presentando Guard en el Demo Day de AI Saturdays Madrid

En mi caso, como habréis adivinado por el post, le enseñé a las máquinas el concepto de privacidad. O, más bien, les estoy enseñando. Mi proyecto final de AI6 está ahora mismo dando el salto para convertirse en una realidad.

Una IA que lucha por tu privacidad digital

¿Cuántas políticas de privacidad te has leído en el último mes?

Es broma. Nadie las lee. De hecho, menos del 0.001% de todos los usuarios de internet lo hacen. Si eres parte del 99.999% restante, estarás aceptando términos que ni siquiera sabes que existen. Lo cual da un miedo que te pasas, considerando todos los riesgos de privacidad a los que te expones (¿alguna vez has oído hablar de Cambridge Analytica? ¿Faceapp?) — “Acepto” es la mayor mentira del siglo XXI, y “Valoramos tu privacidad” puede que sea la segunda.

“Acepto” es la mayor mentira del siglo XXI, y “Valoramos tu privacidad” puede que sea la segunda.

Por eso, para mi proyecto final de AI6 me puse el reto de crear una inteligencia artificial que se lea las políticas de privacidad por ti, y te avise de los mayores riesgos a los que te expones. Para que nadie vuelva a aceptar algo que no ha revisado antes.

La IA usa Deep Recurrent Neural Networks (RNN) como su modelo de lenguaje — además de avances de state-of-the-art en Natural Language Processing (NLP) como transfer learning que la hacen muy precisa: es capaz de detectar que “venderemos tus datos a terceros” es algo potencialmente peligroso mientras que “anonimizamos tus datos antes de guardarlos” es algo respetuoso con tu privacidad.

El problema, como comentaba al principio, es cómo enseñarle a un ordenador lo que es respetuoso con la privacidad y lo que no.

Para el demo day hice una prueba de concepto, pero ahora estoy afinando al máximo la precisión de la IA para convertir esto en una realidad.

Estoy llevando a cabo un estudio pionero en el mundo para extraer una perspectiva humana en privacidad, y usar eso para enseñarle a las máquinas a proteger nuestra privacidad digital y hacer de internet un lugar más seguro para todos.

Juega ahora

Se trata de un juego en el que te expondrás a “dilemas” de privacidad (imagínate cosas como “si solo pudieras salvar una cosa, ¿qué elegirías: que todo el mundo lea tus conversaciones de Whatsapp o que todo el mundo vea tu historial de navegación?”). El test te descubre algunos de tus sesgos cuando tomas decisiones éticas y te compara con el humano medio.

Y con esto, poquito a poco, la IA va aprendiendo a diferenciar el “bien” del “mal”.

Esta IA hoy se llama Guard, y puedes convertirte en un pionero y hacer avanzar la “privacidad” como derecho humano básico jugando a un simple juego ahora 👉 https://useguard.com/test

En el futuro, Guard no solo se leerá las políticas de privacidad por ti, sino que te ayudará a defenderte de cuantos peligros encuentre. Aquí os dejo un adelanto en exclusiva del futuro en el que estoy trabajando ;)

Javi Ramírez (@rameerez) es un creador de productos digitales. El año pasado se puso el reto de lanzar una startup al mes durante todo un año; y hoy empresas como Uber y Adobe, además de 50.000 personas en más de 165 países alrededor del mundo ya usan alguno de sus productos. Guard es su última apuesta donde usar la IA para generar un impacto positivo en el internet de mañana.

--

--

Javi Rameerez
Saturdays.AI

I make digital products. Uber, Adobe & 50k+ people from 165+ countries all over the world already use something I made. https://rameerez.com/creations