¿Inteligencia Artificial Explicable? No, no se logrará.
Hablemos del dolor de cabeza de la interpretabilidad, transparencia, explicabilidad, y la confianza
Traducido por Carlos Secada del original por Cassie Kozyrkov (editado por Felipe Chiriboga)
La IA Explicable (XAI, por sus siglas en inglés) está recibiendo mucha atención en estos días, y si eres como muchas personas, te sientes atraído a ella por el tema alrededor de la inteligencia artificial y la confianza. Si es así, malas noticias: la XAI no puede brindar la seguridad que esperas. En cambio, si proporciona una buena fuente de incompleta inspiración.
Antes de quedar atrapados en revuelo de la confianza, examinemos la sabiduría detrás de una oración que he estado escuchando mucho últimamente: “para confiar en la IA, necesitamos que sea capaz de explicar cómo tomó sus decisiones.”
La complejidad es la razón de todo.
Algunas tareas son tan complicadas que no pueden ser automatizadas dando instrucciones explícitas.
La IA se trata de automatizar lo indescriptible, pero no esperes que lo indescriptible sea fácil de entender.
El objetivo de la inteligencia artificial es que, al explicar con ejemplos en vez de instrucciones, puedas esquivar el dolor de cabeza de descubrir las instrucciones tú mismo. Ese es el trabajo del algoritmo de la IA.
¿Cómo podríamos confiar en algo que no entendemos?
Ahora que estamos automatizando cosas donde no podríamos haber hecho manualmente un modelo (receta / instrucciones), porque es demasiado complicado, ¿en serio esperamos leerlo y poder comprender realmente cómo funciona? Una receta con un millón de aburridos artículos es algo que una computadora puede recordar fácilmente, pero desborda tu limitada capacidad humana de memoria.
Entonces, si no podemos leer este complicado enredo y descubrir cómo la receta está tomando su decisión, ¿por qué deberíamos confiar en esta receta?
Imagina que debes elegir entre dos naves espaciales. La nave espacial 1 viene con ecuaciones exactas que explican cómo funciona, pero nunca se ha volado. Cómo vuela la Nave Espacial 2 es un misterio, pero se ha sometido a pruebas exhaustivas, con años de vuelos exitosos similares al que tú estás por realizar.
¿Qué nave espacial elegirías?
Esta es una pregunta filosófica, así que no puedo responder por ti. Sé que tengo una preferencia personal, tal vez ese es el estadístico en mí, pero elegiría las extensivas pruebas como una mejor base para la confianza.
Probar cuidadosamente tu sistema, asegurando de que funcione como se supone que debe hacerlo, eso es lo que te mantiene a salvo.
Las pruebas como una mejor base para la confianza
Si queremos que un estudiante aprenda cálculo, queremos que pueda “generalizar”, es decir poder resolver problemas más allá de los ejemplos de los libros de texto, en lugar de sobre-ajustarlos (“sobre-ajustar” se traduce aproximadamente como “memorizar”, en lenguaje simple). ¿Cómo podemos verificar que sean capaces de hacerlo?
Por favor, no tomes un bisturí y trates de hurgar en la húmeda masa craneal de tus estudiantes para descubrir cómo están haciendo los cálculos. Eso equivale a tratar de interpretar el modelo, y me alegro de que no lo hagas. Tú no tienes idea de cómo el cerebro humano implementa sus cálculos (ya que ni tu ni la neurociencia pueden describir las señales electroquímicas allí), pero no hay problema. De todos modos, esa no es la mejor fuente para generar confianza.
Diseña exámenes para detectar la memorización, y asegurarte de que reflejen las condiciones bajo las cuales tus estudiantes deben actuar.
En su lugar, lo que debes hacer es diseñar un minucioso examen, y si tu estudiante, humano o máquina, lo aprueba entonces sabrás que está calificado. Eso es, más o menos, lo que las pruebas significan en IA también.
El examen debe estar diseñado para detectar el sobreajuste (el uso de datos nuevos es la mejor manera de frustrar a esos molestos memorizadores) y ser relevante para el entorno en el que el estudiante debe actuar. Los expertos en IA aplicada se toman en serio las pruebas estadísticas rigurosas, y tú también deberías hacerlo.
Hablemos de IA explicable.
¿Estoy diciendo que la interpretabilidad, la transparencia y la explicabilidad no son importantes? Eso no es así, en absoluto. Tienen su lugar… en la analítica.
En muchos debates de interpretabilidad, notarás que los participantes hablan entre sí y malinterpretan las diferentes áreas de la ciencia de datos aplicada. Están interesados fundamentalmente en diferentes clases de aplicaciones.
Si la aplicación implica generar inspiración (en otras palabras es analítica avanzada con inteligencia artificial) entonces por supuesto que necesitas interpretabilidad. ¿Cómo vas a usar una caja negra para inspirarte? Con gran dificultad, así es como lo harás.
Si estás buscando inspiración con analítica avanzada, ese es un objetivo diferente al de construir un sistema automatizado seguro y confiable para tomar decisiones de forma masiva, donde el rendimiento es lo más importante. Si tu proyecto realmente demanda ambos, podrás combinar los dos objetivos pero pagando un precio muy alto: tu resultado será peor para cada uno de los objetivos, que si te hubieses quedado sólo con uno. No pagues por cosas que no necesitas.
Todo se reduce a cómo aplicas los algoritmos. No hay nada de qué discutir si encuadras la discusión en términos de los objetivos del proyecto.
A menudo, las personas que discuten son investigadores. Su trabajo consiste en crear herramientas de uso general que no tienen aún un proyecto de negocio (u objetivos de proyecto), así que, al igual que los vendedores ambulantes de peladores de papas, ellos están motivados a realzar las virtudes de sus productos a cualquiera que los escuche, ya sea o no que su público cautivo vaya alguna vez a preparar comida. “Tú necesitas este pelador de papas” no es cierto para todos, y realmente depende de tu proyecto. Lo mismo ocurre con la interpretabilidad y XAI.
Fascinación con el mecanismo
Si estás fascinado con la forma en que algo funciona por sí mismo (mecanismo), ese es el instinto de investigación que entrenaste en tus clases de ciencia, tecnología, ingeniería y/o matemáticas. Ese instinto te ayuda a construir un nuevo estudiante, un nuevo cerebro, una nueva nave espacial, un nuevo microondas.
Gran parte de la confusión proviene de no saber en qué negocio de IA estás. Los argumentos que son apropiados para los investigadores (construir mejores naves espaciales) tienen poco sentido para aquellos que aplican la IA (resuelven problemas usando naves espaciales existentes).
En la ciencia de datos aplicada, el amor al mecanismo es un gran instinto para los analistas; ver cómo funciona algo puede revelar posibles amenazas y oportunidades. Si buscas datos para obtener inspiración, ¡descarta todas las cajas negras junto con la basura de ayer!
Desafortunadamente, ese mismo instinto te llevará por mal camino si tu objetivo es el rendimiento.
Tonterías populares sobre los humanos
Muchas personas demandan conocer el mecanismo como requisito previo para la confianza. Tienen una reacción instintiva hacia la IA: “Si no sé cómo lo está haciendo, no puedo confiar en que tome decisiones”.
Si te niegas a confiar en la toma de decisiones en algo cuyo proceso no entiendes, entonces deberías despedir a todos tus trabajadores humanos, porque nadie sabe cómo el cerebro toma decisiones (¡con sus cien mil millones de neuronas!).
Manteniendo la IA a estándares sobrehumanos
Si necesitas una interpretación de cómo una persona tomó una decisión a nivel de modelo, deberías quedar satisfecho sólo con una respuesta en términos de señales eléctricas y neurotransmisores que se mueven de una célula cerebral a otra. ¿Alguno de tus amigos explica la razón por la que pidieron café en lugar de té, en términos de químicos y sinapsis? Por supuesto que no.
En cambio, la gente hace algo distinto: examina la información y sus opciones, y luego te cantan una bonita canción que trata, en retrospectiva, de dar sentido a todo. Eso es esencialmente XAI, aunque las explicaciones humanas no sean siempre correctas. Los economistas de comportamiento disfrutan induciendo decisiones a sus desprevenidas víctimas (es decir, los participantes del experimento), y luego disfrutan escuchando historias incorrectas sobre el “por qué” la gente tomó esas decisiones (que realmente el experimentador tomó por ellos).
Cada vez que los humanos inventen una conveniente y sobresimplificada historia, que se ajuste en retrospectiva a las entradas y salidas (inputs y outputs), esas ¡son buenas noticias! Siempre tendrás acceso al mismo nivel de explicabilidad para cualquier modelo; incluso puedes ser agnóstico al modelo. Solo mira tus datos de entrada y salida, y luego cuenta una historia divertida. De eso se trata la analítica.
Cuando es más simple que la verdad, tu explicación es técnicamente una mentira. Puede inspirarte, pero se parecerá más a usar una sábana de seguridad que una red de seguridad.
Siempre que puedas pagarlo, agregar una capa de analítica es una buena idea (recuerda, no tomes demasiado en serio lo que ves). Los esfuerzos más sabios en XAI se centran en analítica con entradas y salidas. Claro, hacen que parezca que se está inventando algo nuevo cuando es simplemente el viejo y famoso “ver tus datos y verificar que tienen sentido”. El único problema que tengo con eso es que te lo venden como base para generar confianza. XAI es muchas cosas buenas, pero la forma en que se la invoca en las discusiones de confianza es una audaz estafa. La explicación siempre estará terriblemente sobre simplificada, así que no será cierta. !Madre mía¡
La explicabilidad proporciona un boceto de un porqué, pero no proporciona el cómo de la toma de decisiones. No es seguro tomar un boceto de dibujos animados como algo más que inspiración, y harías bien en recordar que la confianza basada en XAI es como la confianza basada en algunas piezas de un rompecabezas gigante.
La analítica sin un proceso de pruebas es un boleto de ida sin retorno a una falsa sensación de seguridad.
Pero volvamos al tipo de IA donde el modelo es interpretable, donde no estamos enfocados en lo que sucede en los datos. En otras palabras, queremos entender el equivalente del funcionamiento de aproximadamente 100,000,000,000 de pequeñas células en tu cráneo para explicar cómo realmente elegiste ese café.
¿Por qué no podemos tener ambos?
En un mundo perfecto, te gustaría tener un rendimiento perfecto y una interpretación perfecta, pero generalmente la vida real te obliga a elegir. ¿Sabes cómo llamamos a una tarea donde se puede tener ambas cosas? Simple, fácil y probablemente ya resuelto sin IA.
Así que hablemos de esas tareas peludas, complicadas e incomprensibles. Aquellas para las que tu cerebro ha evolucionado para hacerlas sin decirte cómo las hace. O aquellas en las que la señal es una pequeña aguja escondida en un gran pajar de combinaciones de atributos y características. Las que te obligan a recurrir a la IA como primera opción. Para esas tareas, tendrás que elegir entre:
- Interpretabilidad: tú las entiendes, pero no funcionan bien.
- Rendimiento: tú no las entiendes, pero funcionan bien.
Recuerda, la explicabilidad puede ser agnóstica al modelo, por lo que es casi un proyecto de analítica separado, que puedes abordar si tienes el tiempo y la energía. Sin embargo, la verdadera interpretación del modelo te reducirá el rendimiento si la tarea requiere una receta compleja.
Cuando el rendimiento es lo más importante, no limites tus soluciones a lo que la simple mente humana tiene capacidad de entender. Quieres automatizar lo indescriptible, ¿recuerdas? El punto es que algunas tareas son realmente tan complicadas que una buena solución será un nido de complejidad, por lo que no entenderás el modelo. En el mejor de los casos, podrás sobre simplificarlo con analítica.
No limites tus soluciones a lo que la simple mente humana puede abarcar.
Para realmente tener éxito en estas tareas con un alto rendimiento, debes dejarte llevar. Si quisieras que tus sentidos sean controlados por una simple cantidad de células cerebrales que funcionan de manera comprensible, entonces no serían sentidos muy efectivos. El cerebro simple de una mosca es más fácil de entender que el tuyo, pero apuesto a que no intercambiarías lugares con la mosca voluntariamente. Te gusta más tu rendimiento.
Exigir que todos los modelos sean interpretables es como exigir que ningún cerebro de los que te ayudan sea más complicado que el de una mosca. Hay un límite a lo que una mosca te puede ayudar.
En su lugar, opta por la confianza que viene de asegurarte de que puedes verificar que tu sistema, de hecho, si funciona.
Es bueno tener ambos, por supuesto, y algunas tareas son lo suficientemente simples como para que se puedan resolver de una manera que cumpla con todos tus deseos, pero si no puedes tener ambas, ¿no es mejor ir directamente a lo que es más relevante? Eso es rendimiento en pruebas bien diseñadas.
Soberbia y el peligro de preferir el mecanismo
Algunas personas aún prefieren el mecanismo como su base ideal para la confianza. Elegirían la nave espacial no probada, cuyos principios físicos de vuelo física han leído.
Para que la arrogancia no se lleve los mejor de nosotros, vale la pena darse cuenta el mecanismo está a sólo un paso del rendimiento. Las personas que prefieren información sobre cómo algo funciona, pueden confiar demasiado en su propia capacidad humana para saltar de un mecanismo complejo al rendimiento esperado. Sólo esperemos que sean lo suficientemente inteligentes como para evitar un doloroso golpe.
No todo en la vida es simple
En pocas palabras, las soluciones simples no funcionan para tareas que necesitan soluciones complicadas, por lo que la IA viene al rescate con… soluciones complicadas. Desear que las cosas complicadas sean simples, no las hará así. Si una ley dice que una cosa tuya intrínsecamente complicada tiene que ser simple, es una forma educada de decirte que no puedes tener esa cosa, en absoluto. (Lo que a veces es lo mejor).
¿Por qué pueden los algoritmos de IA crear soluciones que son más complicadas que el código que elaboras? Una computadora puede recordar perfectamente (guardar en el disco) mil millones de ejemplos, de una manera que tú no puedes, y no se confunde u olvida de la misma manera en que uno lo hace. No se aburre escribiendo un millón de líneas de instrucciones. La memoria de la computadora no es nada nuevo, pero con la potencia informática moderna podemos explotarla a gran escala. Pueda que hayas tenido algunos miles de recetas simples, que caben en la memoria humana, pero ahora es el momento de escribir una nueva hoja.
Hoy, el libro de jugadas de la humanidad se ha expandido a tareas de automatización con recetas complicadas. Algunas de ellas son tan complicadas que no puedes explicarlas en tres oraciones con una cerveza en la mano. Será mejor que nos acostumbremos.
Obtenga más información sobre ciencia de datos e inteligencia artificial en español aquí.