La importancia de la diversidad cultural en la ética de la IA

OdiseIA
OdiseIA
Published in
11 min readFeb 17, 2021

Emmanuel R. Goffi, director del Observatoire Éthique & Intelligence Artificielle del Institut Sapiens (Francia), escribe en OdiseIA sobre la importancia de la diversidad cultural en la ética de la inteligencia artificial.

Photo by Slava on Unsplash

La inteligencia artificial (IA) está progresando. Y si no tenemos cuidado, bien puede convertirse en un caballo de Troya por una sola premisa: la imposición de un enfoque universal para la toma de decisiones éticas.

La búsqueda de este Santo Grial de un Código deontológico universal en IA ha dejado a su paso una cantidad notable, si no preocupante, de proyectos destinados a establecer un corpus de estándares éticos para enmarcar su desarrollo. Esta intención es loable. Pero es vital que cuestionemos la base sobre la que se asienta este corpus. La gran cantidad de iniciativas que crecen rápidamente y requieren esta herramienta hace que la necesidad de garantizar la base sea aún más urgente. Debemos hacer dos preguntas fundamentales. ¿Es posible crear una sola herramienta para todo y existe un deseo generalizado de crear una herramienta de este tipo?

Un debate dominado por Occidente

Yannick Meneceur evidencia el llamado a un código ético al enumerar 126[1] iniciativas en su libro L’intelligence artificelle en procès. En su Inventario global de directrices éticas de IA, el proyecto Algorithm Watch identifica 166[2]. Y un estudio realizado por un equipo de ETH Zúrich encontró 1180 códigos “pertenecientes a principios éticos”[3].

La necesidad de una herramienta universal para la ética de la IA debería hacernos cuestionar su pertinencia y las razones que motivan el crecimiento de tales iniciativas.

Lo más preocupante de estos informes es que, en esencia, son publicados esencialmente por un número reducido de personas en un número reducido de países. En el meta-análisis elaborado por ETH Zúrich, que abarca 84 documentos, los autores destacan que “En términos de distribución geográfica, los datos muestran una representación significativa de más países económicamente desarrollados (MEDC), con EE. UU. (n = 20; 23,8%) y el Reino Unido (n = 14; 16,7%) en conjunto representan más de un tercio de todos los principios éticos de la IA “, mientras que “los países Africanos y Sudamericanos no están representados independientemente de las organizaciones internacionales o supranacionales “[4].

En otras palabras, los países occidentales están liderando en lo que respecta a la toma de decisiones éticas. Si le sumamos el peso de la Unión Europea (UE), que está afirmando claramente su voluntad de establecerse como actor normativo, Occidente representa el 63% (53 documentos) de los códigos relacionados con la ética de la IA. Según los autores de “El panorama global de las pautas éticas de la IA”, esta sobrerrepresentación indica una falta de igualdad global en el tratamiento de la IA y muestra que los países económicamente más avanzados están dando forma al debate al “descuidar el conocimiento local, el pluralismo cultural y equidad global”.[5]

Algo que limita aún más el alcance de esta asignatura es el hecho de que está monopolizada por un pequeño círculo de “los que saben”, concentrados en el área privada, pública y académica. Incluso dentro de los países occidentales, está claro que el debate está prácticamente cerrado al público.

El resultado de este dominio occidental en el campo de la ética en la IA es que el enfoque es exclusivamente a través de la filosofía continental y sus tres teorías de la ética: ética de la virtud, deontología y consecuencialismo. De hecho, en una inspección más detallada, vemos que hay un predominio real del enfoque deontológico. Esto es controvertido porque simplifica al extremo el pensamiento kantiano. Lo reduce a un programa de ética de bajo costo con un conjunto de reglas de arriba hacia abajo.

Como vemos, el pensamiento occidental ocupa el espacio de la ética abierto por la IA y a su vez niega la diversidad cultural, la variedad de perspectivas normativas y, en última instancia, la verdadera complejidad del análisis ético.

De hecho, la proliferación de códigos, cartas éticas y regulaciones aplicadas a la inteligencia artificial ilustra el estancamiento en el que nos encontramos cuando se trata de intentar alcanzar un consenso sobre estándares universales.

Photo by Aarón Blanco Tejedor on Unsplash

Abrirse a la pluralidad ética

Necesitamos abrir la discusión sobre las reglas éticas de la IA a diferentes culturas y, por lo tanto, a diferentes perspectivas filosóficas. Sin esto, la IA podría convertirse muy rápidamente en un instrumento de dominación intelectual y del imperialismo moderno. Esto, a su vez, obstaculizaría cualquier posibilidad que tengamos de establecer un conjunto de normas universalmente aceptadas.

Más allá de la cuestión de la representación geográfica, la ética de la IA debe pensarse a través de varias filosofías y principios. Y quienes toman decisiones deben abstenerse de basarse en juicios previos. El objetivo de tener un estándar universal ético en IA es que desempeñe su papel en la separación de lo aceptable de lo inaceptable sin un sesgo predeterminado del Bien o del Mal. Y esto solo puede suceder realmente si se tienen en cuenta las diversas identidades culturales y sus filosofías.

La negación de la diversidad cultural en esta área se ejemplifica en China, cuyos valores pueden pasarse por alto en Occidente. El punto no es tomar partido y cuestionarse si se debe adherir o no a las posiciones chinas. Es comprenderlos y analizarlos. Como el segundo más poderoso del mundo en términos de IA y con sus 1.400 millones de habitantes, China tendrá un asiento en la mesa cuando se trate de debates sobre IA. Por lo tanto, es importante conocer la larga historia filosófica que tiene China para comprender las perspectivas de las personas y, por lo tanto, poder interactuar con ellas de manera constructiva.

Como escribió Anna Cheng en La pensée en Chine aujourd’hui en 2007, “lo primero que siente la gente cuando escucha el adjetivo “chino” y la palabra “filosofía” es incómodo. Puede ser un sentimiento muy sutil, pero ciertamente está ahí”[6]. Este sigue siendo el caso, no solo en el contexto de la IA, sino también en términos de geopolítica. Anna Cheng continúa diciendo que “muchos de nuestros contemporáneos mantienen la impresión de que los chinos no son parte de la conversación debido a su sumisión a un régimen autocrático”[7]. Estas ideas preconcebidas son las que se interponen en el camino para que China desempeñe su papel en las discusiones sobre IA.

El controvertido Reino Medio no está solo en ser objeto de este ostracismo. Hay otros países y culturas que son completamente invisibles en este debate, el cual debería ser abierto universalmente.

Latinoamérica también se queda al margen a pesar de verse afectada por las decisiones que se toman. Julio Pertuzé, profesor asistente de la Pontificia Universidad Católica de Chile, escribe que “las discusiones sobre ética de la IA están dominadas por otras voces, especialmente las europeas”[8]. Partiendo de la observación de que “si bien el impacto de la IA es global, su debate ha estado dominado por un conjunto muy restringido de actores’’[9], el Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés en Argentina lanzó el GuIA.ai en 2019. Esta iniciativa fue creada para fortalecer “un espacio donde los investigadores regionales puedan discutir la ética, principios, normas y políticas de los sistemas de Inteligencia Artificial y los problemas particulares de América Latina y el Caribe”[10]. Incluso cuando “el tema de la ética de la IA se encuentra en una etapa temprana en la región y aún no hay suficiente información disponible para evaluarlo de manera integral”[11], no faltan países de América Latina y el Caribe que deseen participar.

India tampoco se debe pasar por alto. Su presencia en la tecnología, a pesar de ser considerada superficialmente y marcada por el pasado colonial del país, está emergiendo. Y, al mismo tiempo, está poniendo en práctica su estrategia de IA[12].

Mirando más profundamente, las filosofías y sabidurías africanas, como Ubuntu, necesitan su lugar en la conversación. Su etnofilosofía, con ejes temáticos propios marcados por la experiencia[13] y su nacionalismo cultural[14], deben integrarse en nuestros pensamientos sobre la ética en la IA. El continente africano es rico en historia intelectual, experiencias, relaciones con los humanos y la naturaleza, así como en diversidad cultural que es esencial para los debates sobre la ética de la IA. Al igual que en China, “es como si el adjetivo ‘africano’ cubriera un particularismo excluyente”[15]. La filosofía africana, como otras, puede abrir a las personas a nuevas perspectivas y ayudarlas a cuestionar sus convicciones. Como afirma acertadamente Alassane Ndaw, “ser filósofo en África consiste en comprender que no puede haber un monopolio de la filosofía”[16]. Esto es cierto para la filosofía en general, sin importar de dónde venga.

En términos del mundo musulmán y el lugar del Islam en el pensamiento ético, nuevamente los prejuicios prohíben su aceptación. Y al hacerlo, se evita que contribuya esta religión centenaria que cubre una increíble diversidad cultural e intelectual. La reducción del Islam a su dimensión geopolítica y componentes islamistas marginales fomenta un rechazo global. Y así esta cultura extraordinaria que enriquecería el debate sobre la ética de la IA no puede participar.

Algunos ya han entendido la importancia de liberarse de sus propias convicciones. En Canadá, el reconocimiento de la cultura indígena está surgiendo en el campo de la IA[17], y en Nueva Zelanda la cultura Maorí, están siendo consideradas en las recomendaciones relacionadas con la ética de la IA[18]. Dos ejemplos que conviene seguir.

En conclusión

La diversidad cultural, sus particularismos y las diferentes perspectivas esbozadas a grandes rasgos son elementos que debemos considerar en la construcción de la ética en IA. Sin prejuicio. Sin juicio de valor. Tenemos que aprender a escuchar para despolarizar y despolitizar el debate. Y al hacerlo, podremos abrirlo a más perspectivas.

Actualmente estamos en un callejón sin salida porque no hemos abordado este tema. Y porque, a pesar de tener buenas intenciones, imponemos una visión occidental al resto del mundo. Al imponer ese miedo a otras personas, como es la naturaleza de los seres humanos, asumimos que nuestras ansiedades son universales. Efectivamente, proveemos soluciones a problemas que afectan a la minoría de la población, como si afectaran a todos y todas por igual y descuidando considerar las mismas especificidades de los problemas a los que se enfrentan los demás. Este es el quid de la cuestión: lo universal.

Este concepto se ha convertido en una ideología. Pretende abolir las diferencias culturales y rechaza la diversidad lo cual, hoy en día, limita con la tiranía. La indiferencia hacia los demás, la indiferencia que a menudo raya en la hostilidad es el compañero natural de las formas de lenguaje que reduce y a menudo se burla, que Edward Saïd ha denunciado. De hecho, negar la diferencia de los demás es una forma de compensar nuestras propias fragilidades y dudas.

Estamos pidiendo a gritos la universalidad de los valores y al mismo tiempo que elogiemos la diversidad cultural. Protestamos contra los prejuicios y la discriminación, pero nos alejamos de ideas que no podemos o no queremos entender. Al tiempo que condenamos los imperialismos chinos o estadounidenses, nosotros mismos estamos imponiendo nuestro propio imperio ético al resto del mundo. En otras palabras, hacemos a los demás lo que no queremos que nos hagan a nosotros mismos.

A la luz de esto, el Observatoire Éthique & Intelligence Artificielle del Institut Sapiens, ha decidido dedicar el próximo año a una profunda reflexión sobre el multiculturalismo y la regulación ética de la IA. Esto se hará junto con varios socios como el Illinois Institute of Technology Centre for the Study of Ethics in Professions; el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA); la Artificial Intelligence Society Bahrain; el Institut Français des Études Académique; INDIAai; la Indian Society of Artificial Intelligence and Law; la Université Mohammed Premier à Oujda y muchos otros de América Latina, Asia, África y Oriente Medio. El Institut Sapiens trabajará en la creación de un informe que cubra la importancia del pluralismo cultural en la evaluación de la ética en la inteligencia artificial. Al hacer este informe, así como publicaciones y eventos, el grupo se está fijando el objetivo de ampliar el campo de posibilidades de la ética en la IA. Sin invalidar ninguna perspectiva, ampliará la red de contribuciones de las culturas que conforman nuestra humanidad.

[Artículo de Emmanuel R. Goffi, traducido del inglés por Arlette Román]

Emmanuel R. Goffi es un filósofo de IA y director del Observatoire Éthique & Intelligence Artificielle del Institut Sapiens. Anteriormente, sirvió 27 años en la Fuerza Aérea Francesa. Posee un doctorado en Ciencias Políticas de Science Po-Paris y es profesor de ética de IA en Aivancity, School for Technology, Business and Society, París-Cachan. También es investigador asociado en el Centre for Defence and Security Studies en la Universidad de Manitoba, Winnipeg en Canadá.

Emmanuel ha enseñado e investigado en universidades de Francia y Canadá y habla regularmente en conferencias, así como en la prensa. Publicó The French Armies Facing Morality: A Reflection at the Heart of Modern Conflicts (París: L’Harmattan, 2011) y coordinó el libro de referencia Aerial drones: past, presente y future- A Global Approach (París: La Documentation francaise, coll. Stratégie Aérospatiale, 2013), así como muchos artículos y capítulos.

Referencias

[1] Yannick Meneceur, L’intelligence artificielle en procès: plaidoyer pour une réglementation internationale et européene, Paris Brulant, 2020, p. 201

[2] AI Ethics Guidelines Global Inventory, AlgorithmWatch, available at https://inventory.algorithmwatch.org/databas

[3] Anna Jobin, Marcello Ienco, Effy Vayena, ‘The Global landscape of AI ethics guidelines’, Nature Machine Intelligence, Vol. 1, 20019, p. 391

[4] Idem

[5] Ibid., p. 396.

[6] Anna Cheng, ‘Les tribulations de la « philosophie chinoise » en Chine’, La pensée en Chine aujourd’hui, Paris, Gallimard, 2007, p. 156–160.

[7] Anna Cheng, Introduction, Op, cit., p. 11–12

[8] Julio Pertuzé, cited in The global AI agenda: Latin America, MIT Technology Review Insights, 2020, p. 6

[9] Norberto Andrade, Promoting AI ethics research in Latin America and the Caribbean, Facebook Research blog, July 2 2020

[10] CETyS| GuIA.ia, Artificial Intelligence in Latin America and the Caribbean: Ethics, Governance and Policies, GuAI.ia

[11] Constanza Gómez Mont, Claudia May Del Pozo, Cristina Martínez Pinto, Ana Victoria Martín de Campo Alcocer, Artificial Intelligence for Social Good in Latin America and the Caribbean: The Regional Landscape and 12 Country Snapshots, Inter-American Development Bank, fAIr LAC intuitive report, July 2020, p.34.

[12] See in particular Avik Sarkar, Ashish Nayan, Kartikeya Asthana, National Strategy for Artificial Intelligence #AIFORALL, Discussion Paper, NITI Aayog, June 2018; Abhivardhan, Dr Ritu Agarwal, AI Ethics in a Multicultural India: Ethnocentric or Perplexed? A Background Analysis, Discussion Paper, Indian Society of Artificial Intelligence and Law, 2020

[13] Jean-Godefroy Bidima, Philosophies, démocraties et pratiques: à la recherche d’un « universal latéral», Critique, Tome LXVII, N° 771–772 ‘Philosopher en Afrique’, August- September 2011, p. 672–686

[14] Chike Jeffers, Kwasi Wiredu et la question du nationalisme culturel, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 639–649.

[15] Séverine Kodjo-Grandvaux, Vous avez dit « philosophie africaine », Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 613

[16] Alassane Ndaw, « Philosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie », carried out by Rammatoulaye Diagne-Mbengue, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 625.

[17] Karina Kesserwan, How Indigenous Knowledge Shapes our View of AI? Policy Options, February 16, 2018

[18] See Karaitiana Taiuru, Treaty of Waitangi/Te Tiriti and Māori Ethics Guidelines for: AI, Algorithms, Data and IOT, May 04, 2020 or The Algorithm charter for Aotearoa New Zealand, New Zealand Government, July 2020.

--

--

OdiseIA
OdiseIA
Editor for

Observatorio del impacto social y ético de la Inteligencia Artificial