El sesgo de supervivencia y la integración de inteligencia artificial en el periodismo
Durante la Segunda Guerra Mundial, la superioridad aérea se convirtió en un factor decisivo para los Aliados en los combates contra las fuerzas del Eje. A medida que el conflicto avanzaba y las misiones se intensificaban sobre Europa, una gran cantidad de aviones no regresaba a sus bases representando una pérdida significativa de pilotos y equipamiento aéreo.
Con el objetivo de reducir estas bajas, los estrategas militares de los Estados Unidos decidieron analizar los aeronaves que lograban regresar para identificar patrones que pudieran ayudar a mejorar su resistencia ante el fuego enemigo. Una de las ideas propuestas fue aplicar el análisis estadístico a problemas militares y para esto involucraron al Grupo de Investigación Estadística (Statistical Research Group, SRG) de la Universidad de Columbia, que estaba formado por matemáticos, ingenieros, estadísticos y científicos.
Los equipos involucrados comenzaron a mapear los daños en los aviones que volvían de las misiones, observando que los impactos de los proyectiles enemigos se concentraban principalmente en las alas, la cola y el fuselaje central. Con estos datos, la conclusión inicial parecía lógica: reforzar estas áreas, ya que eran las más dañadas. Sin embargo, el matemático húngaro Abraham Wald, que formaba parte del SRG, ofreció una perspectiva diferente que cambiaría la comprensión de los datos y las decisiones estratégicas del grupo.
Wald advirtió que los aviones que estaban siendo estudiados no representaban la totalidad de la flota, sino únicamente a aquellos que habían logrado regresar de las misiones. Es decir, los impactos visibles en estos aviones no contaban toda la historia. Las naves derribadas que no regresaban, probablemente habían sido alcanzadas en zonas críticas como los motores o la cabina, áreas que permanecían intactas en los aviones sobrevivientes, ya que un impacto en esos sectores daba como resultado la pérdida total de la aeronave.
Este análisis le permitió a los equipos llegar a una conclusión que parecía contraria a la intuición inicial, las áreas que realmente necesitaban ser reforzadas no eran las que mostraban más daños, sino aquellas que permanecían intactas en los aviones analizados. Este cambio en el enfoque del problema dio origen al concepto sesgo de supervivencia, que subraya la importancia de no basar las decisiones únicamente en los datos visibles, sino también en aquellos que no se observan en el plano inicial.
Posiblemente te hayas cruzado en internet con la famosa imagen utilizada para ilustrar el sesgo de supervivencia, que también puede explicarse como un atajo cognitivo que se produce cuando un subgrupo de éxito se confunde con todo el grupo, debido a la invisibilidad del subgrupo de fracaso. El nombre del sesgo procede del error que puede cometer un individuo cuando un conjunto de datos sólo tiene en cuenta las observaciones supervivientes, excluyendo los casos que no sobrevivieron.
Posteriormente a la Segunda Guerra Mundial, este concepto se utilizó en diversos campos, permitiendo a profesionales mejorar la toma de decisiones en sus áreas de conocimiento. Actualmente, en un contexto marcado por una acelerada integración de la inteligencia artificial en muchas disciplinas, el sesgo de supervivencia sigue teniendo relevancia.
Particularmente en la industria de los medios y el periodismo, el enfoque de Wald le permite las organizaciones de noticias identificar valiosas oportunidades para mejorar sus procesos de toma de decisiones y lograr una integración estratégica y reflexiva de esta tecnología.
En este sentido es clave pensar cuáles son los interrogantes que se están impulsando desde las redacciones y cuáles estamos dejando de lado:
¿Nuestra organización está enfocándose en las áreas correctas? ¿Qué estamos ignorando en las evaluaciones que desarrollamos? ¿Nos estamos dejando llevar por los éxitos promovidos por grandes medios? ¿Exploramos todas las oportunidades a nuestro alcance?
Aquí 3 ideas sobre el tema.
📣 El enfoque en los casos de éxito
En la carrera por integrar inteligencia artificial en las redacciones, puede resultar tentador centrarse en las herramientas y casos que ya han demostrado su valor. Automatizar tareas repetitivas, optimizar procesos de edición, o personalizar contenidos son algunos de los ejemplos de implementaciones exitosas. Sin embargo, este enfoque puede ser engañoso ya que los equipos corren el riesgo de concentrarse solo en los casos promovidos por otros medios, ignorando aquellos experimentos que no llegaron a buen puerto.
Este enfoque podría llevar también a un camino de “innovación estancada” dentro de las redacciones, donde la repetición de éxitos pasados atrofie los procesos de innovación a mediano y largo plazo.
Los denominados “fracasos”, generalmente ocultados por las organizaciones de noticias, son fundamentales para la industria de los medios. Por un lado ofrecen lecciones valiosas sobre lo que no funciona, y al mismo tiempo alertan sobre las áreas que necesitan más atención en este tipo de procesos para maximizar el potencial de la IA, adaptándola a las necesidades específicas de cada redacción.
⚠️ Riesgo de omitir necesidades críticas
El sesgo de superviviente también nos muestra que lo que no vemos puede ser tan importante como lo que tenemos frente a nosotros. En una organización de noticias, hay procesos críticos que pueden estar siendo ignorados en la discusión sobre inteligencia artificial simplemente porque no son tan evidentes o porque los datos para analizarlos son insuficientes. Estos procesos, aunque menos visibles, son fundamentales para el funcionamiento general y, si se dejan fuera de la ecuación, pueden comprometer el éxito a largo plazo de la integración tecnológica.
Es clave que las redacciones amplíen su perspectiva más allá de las áreas que ya están optimizadas y ejerciten nuevos enfoques creativos. Parte de la “infraestructura oculta” en los medios, es decir, los procesos y sistemas que no son visibles externamente, son vitales para las operaciones diarias y podrían obtener mejoras sustanciales en este camino.
🎯 Evitar la sobrecorrección en áreas fortalecidas
Otra implicancia del sesgo de supervivencia es la tendencia a sobrecorregir áreas que ya están relativamente fortalecidas. En pocas palabras, muchas veces se buscan problemas donde no los hay.
Particularmente con la inteligencia artificial esto puede significar una inversión excesiva en tecnologías que ya han demostrado ser efectivas mientras que se descuidan otras áreas que también podrían beneficiarse enormemente de nuevos procesos de innovación.
La clave aquí es reconocer que no todas las áreas requieren el mismo nivel de atención y recursos. Diseñar estratégicamente cómo se distribuyen los equipos y las herramientas le permite a los medios no reforzar innecesariamente lo que ya es fuerte, sino más bien, potenciar aquello que aún tiene margen de mejora y crecimiento.
Links relacionados:
::: Periodismo IA: Guía para la integración de inteligencia artificial en medios y redacciones