Qué políticas de uso de inteligencia artificial están implementando los medios y cómo ChatGPT puede ayudar a crearlas
La integración de la IA en las redacciones periodísticas no es solo una cuestión de eficiencia o innovación tecnológica; es también una cuestión profundamente ética, que influye en la esencia de cómo se informa y se comprende el mundo.
A medida que la industria de los medios le otorga a los algoritmos de IA un rol protagónico en la curación y distribución de contenido, es crucial que los procesos detrás de estas decisiones sean abiertos y comprensibles para las audiencias. Esto no solo ayuda a construir confianza, también permite generar procesos de apertura para asegurar que estos sistemas funcionen de manera justa evitando sesgos asociados. La transparencia se convierte en un aspecto central contra la manipulación y el uso indebido de la información, asegurando que los medios de comunicación sigan siendo una fuente de contenido confiable y veraz.
En este sentido, un aspecto fundamental para abordar el uso ético de esta tecnología en los medios es el diseño de guidelines y normas prácticas de uso. El desarrollo de estas directrices juegan un papel crucial en la integridad y responsabilidad de su aplicación, estableciendo estándares de calidad y ética, y procedimientos para la práctica periodística, asegurando que el contenido producido sea confiable y de valor para la audiencia.
Actualmente, el diseño y la evaluación de estas normativas se posiciona como un aspecto fundamental para la industria periodística. El informe World Press Trends Outlook 2023, publicado en el mes de octubre de 2023 por WAN-IFRA, reveló que el 46% de los editores encuestados ya estaba experimentando con IA generativa en las redacciones aunque solo el 28% tenía un marco claro para su uso. Como ha sucedido en ocasiones anteriores, gran parte de esta transformación está ocurriendo de manera no estructurada, posiblemente a través de iniciativas individuales o equipos pequeños.
Comprendiendo esto, la publicación de directrices permite también transparentar el proceso de su aplicación en dos planos, a nivel interno para sus periodistas y a nivel externo de cara a su audiencia. En el plano interno establecen un marco ético y de responsabilidad para el uso de estas tecnologías, asegurando que su aplicación no comprometa la integridad del contenido ni la confianza del público. Además, las políticas ayudan a los medios a navegar por los retos legales asociados con la IA, como la privacidad de los datos y el consentimiento informado.
Durante el desarrollo de la guía Periodismo IA, que publiqué junto al programa Redacciones5G de Telecom Argentina, recopilé, analicé y sistematicé 37 guidelines elaboradas por diversos medios del mundo. El capítulo 3 de la guía incluye una investigación ad hoc estructurada en tres fases secuenciales. En la primera fase, se identifican los aspectos más destacados de cada caso de estudio. En la segunda, se reconocen los principios rectores comunes entre ellos. Finalmente, en la tercera fase, se elabora una propuesta de políticas de uso específicas para redacciones.
El listado de medios que publicaron sus propias pautas y fueron relevados para el desarrollo del capítulo incluye a DJV (Alemania), DPA (Alemania), Todo Jujuy (Argentina), Sociedad Interamericana de Prensa (América Latina), Flemish Organization for Journalism (Bélgica), Mediahuis (Bélgica), RVDJ (Bélgica), Nucleo (Brasil), CBC (Canadá), The Globe And Mail (Canadá), Hongkong Freepress (China), Wired (EE.UU), Business Insider (EE.UU), News Media Alliance (EE.UU), Thomson Reuters (EE.UU), The Atlantic (EE.UU), Usa Today (EE.UU), NPR (EE.UU), RTDNA (EE.UU), Associated Press (EE.UU), STT (Finlandia), Sanoma (Finlandia), Le Parisien (Francia), RSF (Francia), Norwegian Tabloid (Noruega), Volkskrant (Países Bajos), ANP (Países Bajos), BBC (Reino Unido), Financial Times (Reino Unido), The Guardian (Reino Unido), Aftonbladet/ Schibsted (Suecia), Svenska Dagbladet (Suecia), TT Nyhetsbyran (Suecia), Nordic AI Journalism (Suecia), Heidi.News (Suiza), Ringier (Suiza), CDMSI (Unión Europea).
Estas políticas, que varían de un medio a otro, reflejan el compromiso, la ética periodística y la disposición a explorar las capacidades de esta tecnología. Aquí el detalle de algunos de los medios más destacados con sus enfoques particulares:
DPA (Alemania): La agencia de noticias alemana subraya la importancia de la supervisión humana en el uso de la IA, fomentando una actitud abierta y curiosa hacia las posibilidades que ofrece la tecnología. Este enfoque se centra en mantener la primacía de las decisiones humanas sobre las herramientas de IA, promoviendo la transparencia y la documentación de su uso.
“La dpa anima a todos los empleados a mirar abierta y curiosamente las posibilidades de la IA, a probar herramientas y a hacer sugerencias para su uso en nuestros flujos de trabajo. La transparencia, la apertura y la documentación son cruciales.”
Todo Jujuy (Argentina): Ha implementado un manual de estilo específico para contenidos generados mediante IA, enfocándose en la capacitación de su equipo periodístico. Este medio argentino pone énfasis en la importancia de la revisión humana y prohíbe el uso de IA para generar contenido completo o actuar como editor final, resaltando la necesidad de mantener la producción humanizada de contenidos.
“Realizaremos capacitaciones periódicas para nuestro equipo profesional de periodistas sobre la potencialidad que la adopción de esta tecnología puede otorgarle a su trabajo, así como también el rol de suma importancia que tendrá su toma de decisiones para la selección y revisión de los contenidos que utilicen, tal como ocurre actualmente frente a cualquier otra fuente de información.”
Mediahuis (Bélgica): Promueve la transparencia sobre el uso de IA, asegurando que las tecnologías de IA cumplan con los códigos y estándares periodísticos. Además, enfatiza la importancia del entrenamiento y las habilidades en IA, designando contactos clave para dudas relacionadas con IA dentro de sus equipos.
“El editor en jefe garantiza las tecnologías de IA. Designar un contacto clave para preguntas relacionadas con la IA y seguimiento en la redacción. Invertir en concienciación en las salas de redacción y comunicación sobre prácticas aceptables de IA.”
Hongkong Freepress (China): Permite el uso de herramientas de IA para tareas específicas como revisión gramatical y asistencia en traducciones, siempre verificando los resultados generados por la IA para garantizar su fiabilidad.
“Específicamente, podemos hacer uso de herramientas de inteligencia artificial confiables que han sido entrenadas exclusivamente en el archivo de HKFP, o podemos consultarlas para obtener ideas para historias/preguntas de entrevistas, o para obtener ayuda con codificación, tareas matemáticas o procesamiento de datos.”
Wired (EE.UU): Adopta una postura cautelosa, prohibiendo la publicación de textos generados o editados por IA, excepto en contextos donde el foco esté en la propia tecnología. Este medio experimenta con la IA para sugerencias de titulares o contenido en redes sociales, enfatizando la necesidad de experimentar sin comprometer la calidad.
“Podemos intentar usar IA para sugerir titulares o texto para publicaciones breves en las redes sociales. Podemos intentar usar IA para generar ideas para historias. Podemos experimentar con el uso de la IA como herramienta de investigación o análisis.”
BBC (Reino Unido): Establece que cualquier uso de la inteligencia artificial (IA) en la creación, presentación o distribución de contenido debe alinearse con sus directrices editoriales. Esto incluye principios como imparcialidad, precisión, equidad y privacidad.
“En todos los casos, debe haber una figura editorial de alto nivel que sea responsable de supervisar su implementación y uso continuo. Los responsables editoriales también deben asegurarse de conocer y gestionar eficazmente cualquier uso de la IA por parte de sus equipos.”
Una vez sistematizadas las directrices y con el objetivo de identificar principios rectores, desarrollé una versión personalizada de ChatGPT llamada IA Directrices (español) y AI Guidelines (inglés). Este modelo, entrenado con los textos de las 37 normas de uso recopiladas, está disponible para los usuarios que tengan la versión Plus de ChatGPT.
Posteriormente, le pedí al sistema que analizara y elaborara un primer listado general de los ejes comunes identificados en las 37 políticas de uso recopiladas.
Este experimento me permitió identificar los siguientes patrones comunes utilizados por esos medios:
- Supervisión humana: La mayoría de las redacciones subraya la necesidad de que todo contenido generado por IA sea supervisado por personal editorial para asegurar su precisión y adecuación a los estándares periodísticos.
- Transparencia: Los medios se comprometen a informar claramente a la audiencia cuando se utilice contenido generado o asistido por IA, explicando el rol de la tecnología en la creación de dicho contenido.
- Beneficio a la misión periodística: La implementación de IA debe estar alineada con el objetivo de mejorar la calidad y alcance del periodismo, no solo la eficiencia operativa.
- Protección de contenido y derechos de autor: Es fundamental respetar las leyes de propiedad intelectual y asegurar que el uso de IA no infrinja los derechos de autor.
- Innovación responsable: Se anima a experimentar con IA de manera ética, evaluando los riesgos y consecuencias potenciales para la integridad informativa y la confianza del público.
- Equidad y ausencia de sesgo: Se debe prestar atención a mitigar los sesgos inherentes en los modelos de IA, promoviendo una representación equitativa y diversa en el contenido generado.
- Respeto a la privacidad: La recopilación y utilización de datos mediante IA deben respetar la privacidad de las personas, cumpliendo con las regulaciones aplicables.
- Formación continua: Los periodistas y el personal técnico deben recibir formación sobre las capacidades, limitaciones y uso ético de la IA para maximizar su potencial y minimizar riesgos.
Estas directrices orientadoras reflejan un enfoque proactivo y consciente de los medios de comunicación hacia la integración de la IA generativa en sus operaciones, subrayando un compromiso con la calidad, la ética, y la responsabilidad en este nuevo contexto.
Tomando como base este desarrollo experimental, el final del Capítulo 3 de la guía Periodismo IA incluye una propuesta de políticas y marcos éticos para que pueda ser utilizada por medios y redacciones como punto de partida para diseñar sus propias pautas.
Además, parte de este capítulo fue escrito sobre la experiencia práctica que llevé adelante acompañando a la redacción de Todo Jujuy (Arg) en la integración de inteligencia artificial en su redacción y el diseño de sus propias directrices durante el año 2023, proceso que detallé en este artículo.
A medida que la IA se integra en las redacciones, es crucial que los medios desarrollen principios claros que guíen su uso. Estos principios deben reflejar la filosofía del medio, proporcionando líneas de orientación sin imponer reglas estrictas. De esta forma, los periodistas pueden comprender intuitivamente la actitud de su organización hacia esta tecnología, asegurando una adopción responsable, orgánica y alineada con los valores periodísticos de su medio.