Respuesta de OdiseIA a la petición al Gobierno de España sobre la moratoria en el uso del reconocimiento facial

OdiseIA
OdiseIA
Published in
4 min readApr 6, 2021

El Observatorio del Impacto Social y Ético de la IA emite su respuesta a la petición de más de 70 personas expertas al Gobierno de España sobre una moratoria en el uso del reconocimiento facial.

Setenta académicos españoles han remitido una carta al Gobierno para pedir una moratoria en el uso del reconocimiento facial. En ella se mencionan varias razones por las que se pide esta prohibición de empleo por parte de empresas públicas y privadas hasta que los gobiernos competentes se pronuncien sobre su uso. Destaca el hecho de que, aunque en su opinión son asuntos muy preocupantes que requieren acción, no la piden por “el profundo condicionamiento coercitivo que trae aparejada una vigilancia ubicua”, y tampoco por cuestiones de “privacidad, seguridad o el consentimiento para la recogida y tratamiento de los datos (algo que, en el ámbito de la investigación con seres humanos es absolutamente necesario, y que no parece estar siendo aplicado en la utilización de estos sistemas)”, sino por “las graves deficiencias y riesgos que presentan estos sistemas” en “cuestiones de justicia social e igualdad”.

El equipo de expertos del Observatorio del Impacto Social de la Ética en la Inteligencia Artificial (OdiseIA) , consideramos que estos tres tipos de preocupaciones por el reconocimiento facial son muy relevantes y requieren que todos los grupos de interés estén concienciados al respecto, incluyendo gobiernos, el sector privado, las instituciones y la sociedad civil. Pero, no creemos en la necesidad de una moratoria, como explicaremos en este texto. Como dice la referida carta, los tres tipos de preocupaciones son:

  • Vigilancia masiva
  • Respeto para la privacidad
  • Aumento de la injusticia social por la aplicación de la inteligencia artificial

En OdiseIA, como asociación independiente, trabajamos activamente para que todos los grupos de interés sean conscientes de estos temas y obtengan los conocimientos para que puedan trabajar del modo más eficaz y certero en su prevención o mitigación.

También queremos mencionar que, de las cinco preocupaciones de injusticia social que menciona la carta sobre el reconocimiento facial:

  1. “Asociar a una persona una determinada característica o tendencia ….. con base en estadísticas poblacionales, es altamente problemático”
  2. “Asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos “problemáticos”, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas.” (Frenología)
  3. “En los sistemas de reconocimiento y análisis facial resulta especialmente complejo explicar por qué motivo y con base en qué criterios se ha clasificado a una persona en tal o cual categoría.” (Explicabilidad)
  4. “Estos sistemas además son poco robustos ya que la calidad de sus resultados es altamente dependiente de cuestiones contextuales.” (Robustez)
  5. “Es fácil que un sesgo muestral afecte de manera notable a la calidad predictiva de un sistema cuando diferentes grupos no están representados de forma igualitaria en los datos de entrenamiento.”

Cuatro de ellas (las enumeradas anteriormente como 1, 3, 4, 5) aplican también a otros sistemas de inteligencia artificial basados en aprendizaje profundo y no solo al reconocimiento facial. Su aplicación es igual de preocupante cuando se usan sin informar a los usuarios y si, además, tienen un impacto significativo en la vida de las personas.

No obstante, no creemos que una moratoria sea la respuesta adecuada en el momento actual. En lugar de esto, desde OdiseIA, abogamos por:

  • Una conversación obligatoria y permanente entre el sector privado, gobiernos y la sociedad civil sobre cómo avanzar en esta temática, que tenga en cuenta el estado del arte de la tecnología para mantener actualizada la postura frente a ella.
  • Un registro de todos los sistemas que usen algoritmos de aprendizaje profundo (con las mismas características descritas arriba) y que tengan un impacto significativo en la vida de las personas. Estos sistemas deberían acreditar la explicabilidad en la medida de lo posible.
  • La consistencia con la posible regulación pendiente de definir por la Comisión Europea y la continua revisión de esta regulación en el marco de la colaboración público-privado.

Desde OdiseIA estamos a disposición del Gobierno de España y las autoridades competentes para ayudar a afrontar este importante reto, de cara a conseguir un buen uso de la inteligencia artificial. Asimismo, abrimos una ventana de diálogo con el grupo de académicos firmantes de la carta, reconociendo la necesidad pero también la complejidad de este importante debate.

[Esta respuesta no representa la opinión personal de cada uno de los socios y socias de OdiseIA]

--

--

OdiseIA
OdiseIA
Editor for

Observatorio del impacto social y ético de la Inteligencia Artificial