Cómo se pueden evitar los sesgos en los modelos grandes de lenguaje (LLMs)?

Fernando Santamaría González
LearnTechAI
Published in
2 min readJul 4, 2023
Fuente: https://lab.cccb.org/es/miopia-cognitiva-sesgos-y-supervivencia/

Creemos que hay varias técnicas que se pueden usar para mitigar los sesgos (bias) en los LLMs:

Uso de datos más diversos y equilibrados: Los sesgos en los LLMs se transfieren de los datos utilizados para entrenarlos. Utilizar conjuntos de datos más grandes, diversos y equilibrados, que representen una amplia gama de grupos demográficos, puede ayudar a reducir los sesgos.

Auditoría de datos: Analizar los datos de entrenamiento para detectar posibles sesgos antes de entrenar el modelo. Esto permite tomar medidas para abordar cualquier sesgo identificado, como equilibrar mejor los datos o excluir ciertas características problemáticas.

Técnicas de regularización: Las técnicas de regularización, como las pérdidas de equidad, se pueden aplicar durante el entrenamiento para penalizar al modelo cuando muestra sesgos. Esto fuerza al modelo a aprender de una manera más justa e imparcial.

Evaluación contrafactual: Esta técnica evalúa cómo cambian las predicciones de un modelo cuando se modifican ciertos atributos sensibles en las entradas, como el género o la raza. Esto puede revelar sesgos sutiles que no se detectan con otras métricas de evaluación.

Explicación y auditoría de modelos: Después del entrenamiento, analizar el modelo para entender por qué hace ciertas predicciones. Si se descubren relaciones sesgadas con ciertas características sensibles, el modelo puede volver a entrenarse para abordar estos problemas. Las técnicas de explicabilidad de modelos pueden ayudar en este proceso.

Actualización de datos y reentrenamiento: Los sesgos en los datos y modelos pueden surgir y cambiar con el tiempo. Realizar auditorías y reentrenamientos periódicos con datos actualizados ayuda a garantizar que los LLMs sigan siendo equitativos e imparciales en su funcionamiento.

Consideraciones en el uso del modelo: Incluso con un modelo bien entrenado, la forma en que se utiliza puede introducir nuevos sesgos. Documentar claramente las capacidades y limitaciones de un modelo puede ayudar a evitar malos usos que puedan perjudicar a grupos vulnerables.

En general, mitigar los sesgos en los LLMs requiere un enfoque multifacético que aborde el problema tanto en el entrenamiento como en el uso del modelo. Conjuntos de datos más representativos, técnicas de aprendizaje automático avanzadas, evaluaciones integrales y consideraciones responsables sobre cómo se aplican estos modelos son todas partes importantes de la solución. La reducción de sesgos en los LLMs permitirá desbloquear su potencial para beneficiar a amplios grupos de la sociedad.

--

--

Fernando Santamaría González
LearnTechAI

Professor & Speaker on AI, Emerging Tech, and eLearning. Author & Blogger. Innovating in rare disease research and higher education.