Ética Tecnológica: ¿Logrará el nuevo instituto de la Universidad de Stanford marcar la diferencia en el futuro de la Inteligencia Artificial?

Elena Mateos
7 min readJul 18, 2019

--

La tecnología, sin la ética, no ha sido suficiente. Incontable sucesos, revelaciones y acciones de “soplones” (whistleblowers) lo han dejado bien claro. Durante mucho tiempo, las empresas tecnológicas han creado y desarrollado herramientas, motores de búsqueda y algoritmos aplicando un reflexión mínima a las implicaciones políticas, morales, sociales o cognitivas que podían derivarse. El número de voces que denuncia públicamente continúa aumentando, comenzando en 2006 con las publicaciones de Wikileaks, siguiendo con las filtraciones de Snowden sobre el programa de vigilancia PRISM de la NSA o con la reciente renuncia pública de Jack Poulson en septiembre de 2018 debido al proyecto de Google Dragonfly.

Alex Knight for Unsplash

Hace unos meses, en Marzo de 2019, la Universidad de Stanford anunció la creación de un nuevo instituto, respondiendo a esta incipiente exigencia social: la necesidad de quienes trabajan en Inteligencia Artificial (IA) de considerar los efectos de sus innovaciones, previendo las consecuencias negativas para el futuro de la humanidad. El co-director de este instituto (el Human-centered Artificial Intelligence o HAI), John Etchemendy, dijo en una entrevista para El País:

“Hay tecnología muy poderosa, como la tecnología nuclear, la biotecnología, que todos sabemos que puede ser utilizada para el bien, pero también para el mal. Nuestro instituto está dedicado a intentar que el lado bueno prevalezca sobre el lado malo.”

Por lo que dice Etchemendy, el HAI aspira a convertirse en una especie de Comité de Ética para la Tecnología en lo referente a Inteligencia Artificial. Al final de la entrevista, el periodista pregunta si el Instituto hará “recomendaciones específicas”.

Su respuesta fue positiva: “Sí, haremos recomendaciones específicas. Nuestra esperanza es conducir este proceso de una forma correcta y conseguir respuestas suficientes para elaborar, digamos, un libro blanco, algo que podamos sacar diciendo: así es como lo vemos. Para iluminar a los Gobiernos a tomar las medidas que permitan aprovechar los beneficios de la inteligencia artificial sin sufrir sus consecuencias negativas.”

Pero, ¿puede el HAI proporcionar recomendaciones objetivas, imparciales y desinteresadas a las grandes compañías tecnológicas?

Para tomar decisiones acerca de qué avances en IA son éticos, legalmente regulables, económicamente responsables y sostenibles, una larga lista de personas expertas en distintas disciplinas, con distintas ideologías y proveniente de diversos lugares parece lógico. Dicho de otra manera, cabe esperar una lista de Asesores desinteresada y neutral.

En cambio, ¿a quién encontramos en esa lista? Cinco altos cargos de importantes firmas de inversión de capital en EEUU y China, algunos fundadores o ejecutivos de nuevas empresas relacionadas con la IA, un juez, la fundadora de una firma de asesoría ética, algunos académicos de Stanford y varios nombres deslumbrantes:

  • Jeff Dean, alto cargo del departamento de IA de Google: trabaja en reconocimiento del habla, visión de ordenadores, comprensión del lenguaje y otras tareas de aprendizaje para las máquinas.
  • Reid Hoffman, co-fundador de LinkedIn, actualmente en las directivas de Airbnb, Apollo Fusion, Coa o Microsoft entre otras.
  • Eric Horvitz, director de los laboratorios de investigación de Microsoft.
  • Marissa Mayer, antigua directora ejecutiva en Yahoo, ahora co-fundadora de Lumi Lambs, una reciente empresa tecnológica que busca construir aplicaciones de IA para consumidores (no se puede encontrar ningún detalle concreto en su web aún).
  • Jerry Yang, co-fundador de Yahoo.
  • Erich Schmidt, fue director ejecutivo de Google.
  • Mike Schroepfer, jefe técnico ejecutivo en Facebook.
  • Kevin Scott, vicepresidente ejecutivo y técnico en Microsoft.

Algunas ideas críticas acerca del papel real del instituto HAI.

¿Cómo piensa el HAI moldear el “buen camino” para la Inteligencia Artificial y traer el mejor futuro para la humanidad? ¿Cómo piensa proporcionar “recomendaciones específicas” a los Gigantes Tecnológicos si estas recomendaciones implican ralentizar o poner freno a proyectos muy lucrativos de las empresas que conforman su Comité Asesor?

Y lo que más me preocupa como filósofa: ¿cómo han acordado ya cuál es el “buen camino” y el “mejor futuro” para todos nosotros, vivamos en San Francisco, Tokio, Madrid, Accra, Teherán o las áreas rurales más distantes del mundo?

“Estamos reuniendo a pensadores relevantes en distintas áreas para poder preparar a los futuros líderes y hacerles aprender, construir, inventar y crecer con un propósito, una intención y una actitud centrada en la humanidad”, dicen Fei-Fei Li y Etchemendy en la carta de los directores. Es cierto que los avances tecnológicos necesitar ser afrontados desde una perspectiva transdisciplinar. Pero, vuelta a la pregunta, ¿serán imparciales en cuanto a los intereses de las grandes compañías de Silicon Valley?

La necesidad de una transdisciplinariedad e interseccionalidad reales.

En la misma carta de los directores se puede leer: “Para lograr esto, los creadores y diseñadores de IA deben representar ampliamente a la humanidad. Esto requiere una verdadera diversidad de pensamiento -en cuanto a género, la etnia, nacionalidad, cultura y edad, además de en cuanto a disciplinas.”

Sin embargo, de los 23 miembros del Consejo Asesor, 18 son hombres y solo 5 son mujeres. Hablan del futuro de la humanidad y de representarla ampliamente, pero están anclados en California, en una universidad concreta, con investigadores pertenecientes básicamente a dicha universidad, y proviniendo de un único contexto sociocultural.

Es difícil creer que el HAI será capaz de poner límites a investigaciones y programas de IA. Del mismo modo que es casi imposible visualizar a esta institución trazando líneas rojas a Google, Facebook, Microsoft u otras grandes compañías que son una parte vital de su composición interna.

Es mucho más fácil concluir que los interesados en la Industria Tecnológica están trabajando duro para limpiar su imagen y reputación; especialmente tras el impacto de grandes escándalos (las filtraciones de Snowden, la implicación de Yahoo en las detenciones de disidentes en China, el proyecto Dragonfly de Google, los efectos tóxicos de Facebook y Youtube con sus “feedback loops”), así como tras las denuncias públicas y acciones de los “whistleblowers”.

Simson Petrol for Unsplash

Esta conclusión es más que probable, aún más si se presta atención al esfuerzo paralelo que la Industria Tecnológica está dedicando en otro ámbito. Tanto Google como Facebook o Amazon han logrado batir récords de gasto en campañas de lobby para ejercer su influencia en Washington. Sobretodo desde que en 2018 las investigaciones desde la capital estadounidense se intensificaran a raíz de las posibles irregularidades en las elecciones de 2016. Los cinco gigantes de la Industria (Google, Facebook, Microsoft, Apple y Amazon) han invertido en total unos 64.3 millones de dólares en la lucha por influencias batallas legislativas y políticas durante el pasado año.

Es por ello que parece razonable mostrar escepticismo ante este concreto discurso sobre “Tech Ethics”, que se apoya en el capital de empresas y firmas de inversores que sacan beneficio directo de dicha Industria.

Crítica constructiva: consideraciones morales y prácticas.

Consideraciones morales:

En el ámbito moral, Etchemendy parece limitarse a trabajar por la prevención o minimización las consecuencias negativas durante el desarrollo de la IA. Esto coincide con una actitud general adoptada por la Industria desde que los primeros problemas empezaron a estallar: una vez que el daño está hecho, las compañías se comprometen a buscar las mejores medidas para atajarlo. Pero no intentan ir más allá del “control de daños”.

En lugar de centrar la Ética Tecnológica en “lo que sale mal”, los esfuerzos deberían dirigirse más allá del enfoque utilitario, rallando en el Imperativo Categórico de Kant: actúa de manera que tus máximas puedan convertirse en leyes universales. Toda acción en innovación tecnológica debería avanzar hacia el propósito de una vida mejor, más igualitaria, tanto para el planeta como para la humanidad, y no sólo hacia medios cortoplacistas que únicamente minimizan los resultados negativos. El “control de daños” es lo menos que la gran industria tecnológica puede hacer.

La Ética Tecnológica no puede ser sólo la evaluación o predicción de consecuencias en una lista dual de “bien” y “mal”. La ET necesita profundizar sus raíces en el pensamiento filosófico y crítico, alcanzando también la transdisciplinariedad en colaboración con la sociología, la política, la comunicación, la economía, la psicología, la medicina o las ciencias del medioambiente. El HAI de la Universidad de Stanford tiene las herramientas para trabajar con todas estas disciplinas, pero carece de la independencia respecto a la industria y de la diversidad que representaría más proporcionalmente a la humanidad.

Consideraciones prácticas:

Un Comité ético efectivo necesitaría la participación de terceros, como institutos en otras universidades u organizaciones de lugares y contextos diferentes. Todo consenso sobre un conflicto ético necesita condiciones similares a lo que Habermas llama “la situación ideal de diálogo”. Este concepto ha sido crucial para la comprensión actual de una democracia participativa, y ha sido completamente ignorado por la constitución y fundación económica del HAI. Un instituto de este tipo debería quedar libre de la influencia de negocios, gobiernos o instituciones civiles implicadas.

Para crear un espacio para el debate más abierto, en un debate que nos concierne a todos y todas, las medidas para la “situación ideal de diálogo” deberían ser planteadas. En primer lugar, se requiere un espacio abierto en la esfera pública, que permita la participación libre. Segundo, no debe existir ningún tipo de coerción sobre ninguno de los participantes en el proceso. El HAI, como hemos visto, está extremadamente conectado con la gran industria tecnológica: ¿es eso verdadera ausencia de coerción? Y si estas compañías tienen que responder únicamente ante Stanford, ¿no se bloquea así la posibilidad de un diálogo válido, con variedad de opiniones e intereses?

Cualquier paso que se dé hacia reflexiones profundas sobre el futuro de la Tecnología y la Humanidad debería comenzar generando espacios para ello, en una esfera participativa y pública.

Franck V for Unsplash

--

--

Elena Mateos

Writer and Educator | M.Phil. in Philosophy and M.Ed. | Politics, Tech Ethics and Critical Thinking.