¿Son de confiar los sistemas de inteligencia artificial para automatizar entrevistas?

Comencemos por aclarar que Machine Learning (ML) e Inteligencia Artificial (AI) todavía está muy lejos de lograr cosas realmente increíbles, a pesar del marketing que siempre se les otorga, con esto me refiero al hecho de que para lograr los hitos que se han realizado, por ejemplo en visión computacional, se necesitan muchos datos y experimentación. En esta línea, si entrenas sistemas de reconocimiento facial solo con fotos rectas, el algoritmo no será capaz de generalizar a rotaciones, cambios de luz etc. (mismatch) , de todos modos está es un área en desarrollo y probablemente surjan resultados interesantes en los próximos años.

Sistema de reconocimiento de patrones

Cuando uno crea un sistema de reconocimiento de patrones, ML o como se le quiera llamar, lo que hacen estos sistemas es aprender de tus datos. En ese sentido, el sistema será completamente dependiente de con que lo alimentas (input).

Realizar sistemas de recomendación, modelos predictivos etc. es algo que se viene haciendo hace mucho, siempre con la idea de poder eliminar nuestros bias inherentes como seres humanos. Lo que se busca en esta área es poder tener un ente completamente racional bajo una perspectiva bayesiana para eliminar nuestros malditos (y a la vez benditos) sesgos en la toma de decisiones.

Sin embargo, el hecho de que ML dependa de los datos de entrada lo hace susceptible a bias por las mismas personas que eligen cuales son los datos que se deben entregar. Un caso de fracaso muy grande es el clásico y escandaloso error en los algoritmos de reconocimiento facial de Facebook, los cuales clasificaban mujeres de África como simios, esto ocurrió debido a que el reconocedor se entrenó en base a hombres y mujeres de piel blanca.

En esta columna que dejo al final del texto Joy Buolamwini, una estudiante del MIT Media Lab, pionera en reconocer y estudiar los sesgos en los algoritmos de ML expone algo muy interesante: existe una aplicación llamada HireVue, que es muy utilizada en EEUU (y se utiliza en Chile igual, no sé si será la misma) tiene como principio automatizar el proceso de entrevista en las grandes empresas y así ahorrar tiempo y dinero. Sin embargo, de acuerdo con un reportero de Business Insider este software tiende a reflejar las antiguas preferencias de contratación (por lo tanto, acarrea el mismo sesgo que ya tenía la empresa).

Foto de Joy Buolamwini utilizando una mascara blanca para poder ser reconocida en un sistema de identificación de personas. Experimento realizado en MIT Media Lab.

“So, if more white males with generally homogeneous mannerisms have been hired in the past, it’s possible that algorithms will be trained to favorably rate predominantly fair-skinned, male candidates while penalizing women and people of color who do not exhibit the same verbal and nonverbal cues”.

“But how do we know a qualified candidate whose verbal and nonverbal cues tied to age, gender, sexual orientation or race depart from those of the high performers used to train the algorithm will not be scored lower than a similar candidate who more closely resembles the in-group? ”.


Básicamente, lo que hace este software es analizar movimientos corporales, movimiento de tus ojos y tu confianza entre otras cosas, sin embargo, no está claro con que base de datos ha sido entrenado. ¿Tendrá alguna inclinación por ser entrenado sólo con personas blancas?

Si bien en el artículo que se adjunta más abajo encontraran más información, les comparto esto por si alguno vive la experiencia de ser entrevistado por un software de inteligencia artificial. En lo personal dudaría sobre su eficacia y plantearía el cuestionamiento de cómo ha sido entrenado y cuáles son sus métricas para evaluar al candidato. Sin duda es un gran tema de investigación el poder evaluar si presenta ciertas preferencias de género y “belleza” (estereotipos).

Artículo de Opinion de Joy Buolamwini : https://www.nytimes.com/2018/06/21/opinion/facial-analysis-technology-bias.html

Video en Ted: https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms

Reporte Business Insider: http://www.businessinsider.com/hirevue-ai-powered-job-interview-platform-2017-8