Investigación realizada por el BBC ha descubierto que cuatro chatbots de inteligencia artificial (IA) principal (Chatgpt de Openai, Copilot de Microsoft, Géminis de Google y AI perplejidad, están resumiendo de manera inexacta de noticias. El estudio involucró a estos chatbots que resumen 100 noticias obtenidas del sitio web de la BBC.
EXCLUSIVO DE BBC: AI Chatbots distorsionan resúmenes de noticias
La BBC informó que las respuestas producidas por los chatbots de IA contenían «inexactitudes significativas» y distorsiones. Deborah Turness, CEO de BBC News and Actual Affairs, anotada en un blog Que si bien la IA ofrece «oportunidades interminables», los desarrolladores están «jugando con fuego», planteando preocupaciones de que los titulares distorsionados por IA podrían causar daño en el mundo real.
A lo largo del estudio, que involucró las calificaciones de periodistas que eran expertos en los respectivos temas de los artículos, se descubrió que el 51% de las respuestas de IA tenían problemas sustanciales. Entre las respuestas generadas por la IA que hizo referencia al contenido de la BBC, el 19% contenía errores objetivos, incluidas declaraciones, números y fechas incorrectas. Además, el 13% de las citas atribuidas a los artículos de la BBC fueron alterados o tergiversados.
Algunas imprecisiones específicas identificadas en el estudio incluyeron Gemini que indicaba que el Servicio Nacional de Salud (NHS) del Reino Unido no recomendó vapear para dejar de fumar, cuando de hecho lo hace. Chatgpt y Copilot afirmaron incorrectamente que los ex líderes Rishi Sunak y Nicola Sturgeon todavía estaban en el cargo, a pesar de sus salidas. La perplejidad citó mal las noticias de la BBC, lo que sugiere que Irán actuó con «restricción» con respecto a las acciones de Israel.
El estudio destacó que el copiloto de Microsoft y Géminis de Google exhibieron problemas más significativos en comparación con el chatgpt de Openi y Perplejidad ai. La BBC había elevado temporalmente restricciones sobre su acceso de contenido a estos sistemas de IA durante la fase de prueba en diciembre de 2024.
OpenAi derriba el clúster iraní usando chatgpt para crear noticias falsas
El director del programa de la BBC para la IA generativa, Pete Archer, enfatizó que los editores deben controlar cómo se usa su contenido y que las compañías de IA deben revelar cómo sus asistentes procesan las noticias, incluidas las tasas de error. Openai respondió que colaboran con socios para mejorar la precisión de las citas en línea y respetar las preferencias del editor.
Después del estudio, Turness instó a las compañías tecnológicas a abordar los problemas identificados, similar a la forma en que Apple respondió a las quejas anteriores de la BBC sobre resúmenes de noticias con IA. Ella provocó un esfuerzo de colaboración entre la industria tecnológica, las organizaciones de noticias y el gobierno para remediar las inexactitudes que pueden erosionar la confianza pública en la información.
El estudio señaló además la tendencia de la IA de la IA de alterar las declaraciones de las fuentes y reveló que Copilot se basaba en artículos obsoletos para sus resúmenes de noticias. En general, la BBC tiene como objetivo participar en una conversación más amplia sobre el entorno regulatorio para la IA para garantizar una difusión precisa de noticias.
En respuesta a los hallazgos, Turness planteó una pregunta crítica con respecto al diseño de tecnologías de IA para fomentar la precisión en el consumo de noticias. Ella declaró que el potencial de distorsión, similar a la desinformación, amenaza la confianza pública en todos los medios informativos.
Crédito de la imagen destacada: Kerem Gülen/ideograma