¿Deciden las IAs mejor que los humanos?

javi l
Pensando El Futuro
Published in
5 min readNov 24, 2021

Muchísimas de las decisiones que tomamos hoy en día se ven directa o indirectamente influenciadas por algún algoritmo de inteligencia artificial, tal como expone el artículo Impact of AI on Human, este tipo de tecnologías nos sugieren qué video ver después, qué producto comprar, a qué causa apoyar, basado en su análisis de nuestro comportamiento. Dejando de forma evidente que no faltan ejemplos de la vida cotidiana que demuestren la gran influencia que poseen estas tecnologías autónomas. Y no es ningún secreto: el mundo está empezando a discutir la tendencia exponencial sobre el uso del machine learning, incluso llegando a tribunales políticos, investigaciones científicas, inversiones privadas, etc.

Incremento del uso de IA a lo largo de los años (hasta 2019)

Recolección masiva de datos

Tendencia exponencial en cuanto a la recolección de datos

Las bases de datos poseen la capacidad de almacenar cada vez más información, tal como se puede ver en el gráfico, estos últimos años se presentó una tendencia exponencial en la recolección de datos. Dando origen al Big Data, que no es solamente los datos masivos, sino que además implica el procesamiento de estos mismos.

Según la tesina escrita por un alumno de ORT en “La muerte de la privacidad en la era digital” , actualmente hay compañías de tecnología que están recolectando datos de sus usuarios, cabe mencionar que las magic cookies ya se dejaron obsoletas por una técnica llamada fingerprinting, esto siendo posible gracias a herramientas como fingerprintJS. No obstante, en esta tesina no se discutirá sobre el tema de la privacidad, debido a que ya ha sido abordado en la tesina previamente referenciada.

Big data y las IAs

Tal como afirma el artículo Machine learning and Artificial intelligence to Gain traction !, estas cantidades masivas de datos recolectados han sido uno de los principales factores para el crecimiento del ML, debido a que es bastante conveniente por su capacidad nativa de procesarlos y aprender patrones.

IA tomando decisiones importantes

El trabajo de un médico especializado, que toma decisiones de vida o muerte, basado en el análisis de datos, es un buen caso de uso para el machine learning, tal como se menciona en el documental MiEmpleoMiFuturo en el minuto 9:30.

Pasando a un caso concreto, en 2011 IBM creó una inteligencia artificial capaz de diagnosticar mejor que un ser humano:

“Watson’s ability to absorb this information faster than any human should, in theory, fix a flaw in the current healthcare model. Wellpoint’s Samuel Nessbaum has claimed that, in tests, Watson’s successful diagnosis rate for lung cancer is 90%, compared to 50% for human doctors.” (IBM’s Watson is better at diagnosing cancer)

Hay incontables casos en donde IA es de gran utilidad en la industria de la salud, si le interesa conocer más, le recomiendo leer Better medicine through machine learning: What’s real, and what’s artificial?

Machine Learning “aprende” a base de ejemplos

El hecho de que estos algoritmos se basan en los ejemplos que les otorgamos, implica que, si hay un déficit en la calidad representativa de los datos, habría un sesgo en la IA.

Una máquina perfecta y específicamente obediente no es compatible con la mente divagante, compleja y subversiva del ser humano.

Incluso Google, una empresa que recolecta una enorme cantidad de datos, que a la vez cuenta con un equipo bastante avanzado, también puede ser víctima de este tipo de fenómenos:

Fuente: Why Should I Trust You?

Hasta suponiendo que los datos sí terminan siendo representativos y correctamente etiquetados, esto no implica que la inteligencia artificial no aprenda los patrones incorrectos, como se puede observar en este ejemplo: el algoritmo de clasificación confundió un lobo con un Husky, debido a que aprendió que, si hay nieve en el fondo, entonces debe ser un lobo, ignorando al lobo/Husky en sí.

¿Es un modelo de IA una caja negra?

Los ejemplos propuestos anteriormente demuestran que las IAs son solo algoritmos, que no poseen muchas de las limitaciones de un ser humano. Sin embargo, ya se ha demostrado que están lejos de ser imparciales, para prevenir situaciones catastróficas, se debe comprender el funcionamiento del sistema para así entender y corregir sus errores.

Esto nos lleva al problema de que las IA sean “como cajas negras”, es decir, como sistemas que no son comprensibles. Esto hace que se vea como algo mágico, y cuando falla la idea es saber por qué.

Cabe mencionar que estas ideas ya fueron planteadas previo al surgimiento de las IA, ya Carl Sagan ha advertido sobre el peligro de que los humanos no comprendan la tecnología de la que tanto dependen:

“Vivimos en una sociedad absolutamente dependiente de la ciencia y la tecnología y sin embargo hemos montado las cosas tan inteligentemente que casi nadie entiende la ciencia ni la tecnología. Esa es una fórmula segura para el desastre” — Carl Sagan

Entonces, ¿A qué llegamos?

Las IA no son imparciales, en mi opinión esto es debido a que las personas que los crean tienen distintos puntos de vista subjetivos. Si queremos crear algoritmos semejantes a la mente humana, debemos ser más autoconscientes al desarrollarlos. Por un lado, en el ejemplo medico puedo decir que terminan decidiendo mejor que humano, y que son buenos en trabajos específicos, la desventaja es que al mismo tiempo un conocimiento de otro campo puede ayudar para tomar mejores dediciones en la tarea que fue entrenada.

¿Alguna propuesta práctica?

Hay aceptar que no hay soluciones fáciles a problemas complejos. ¿Qué se puede hacer al respecto?

  1. Desde el punto de vista del desarrollador, se debe saber que las decisiones de la IA tienen consecuencias, y debido a esto se debe inspeccionar antes de subir a producción con herramientas como WhatIfTool, que proporciona una interfaz agradable para ampliar la comprensión de los modelos de ML.
  2. No dar por sentado que por ser un algoritmo “inteligente”, no va a tener sesgos o algún problema.
  3. Hablar y difundir más sobre este tema.

Bibliografía

Explainability and Visibility into Covid-19 X-Ray Classifiers by Deep Learning

La Verdad Sobre el Sesgo en Inteligencia Artificial

La Muerte de la privacidad en la era digital

Impact of AI on Human

Lo artificial es la falta de sesgos

--

--