IA inventa datos en sus respuestas sobre las noticias

La IA aún no ha demostrado ser fuente confiable, la responsabilidad sigue siendo humana

Estudio revela que ChatGPT, Copilot y Gemini tergiversan la información.

 

03/11/25.- El mayor estudio internacional realizado hasta la fecha en 14 países y 18 idiomas sobre el consumo de noticias a través de la Inteligencia Artificial (IA) descubre que ChatGPT, Gemini, Copilot y Perplexity hacen atribuciones falsas a los medios de comunicación, introducen juicios de valor al comentar la actualidad tergiversando la información en casi la mitad de sus respuestas.

La investigación, coordinada por la Unión Europea de Radiodifusión (UER), revela que el 45 % del contenido informativo sintetizado por los principales asistentes de IA incluyen “al menos un problema significativo”.

Entre ellos se encuentran las referencias falsas, al asegurar que determinados medios de comunicación han publicado algo que en realidad no han hecho; editorialización, introduciendo sus propios juicios de valor o asignándolos incorrectamente a los medios; o las imprecisiones significativas, con inexactitudes “que pueden inducir a error al lector”.

Además de esa tasa del 45 % de errores graves, la investigación ha categorizado otra escala de fallos menores, como problemas al explicar el contexto; imprecisión en las citas de las fuentes o errores a la hora de presentar qué es un hecho y qué es una opinión de las fuentes. Se trata de errores que no deberían llevar a error al lector, pero que si se suman con los “problemas significativos” antes descritos, elevan la tasa de inexactitudes hasta el 81 % de las respuestas de la IA.

No tienen rigor periodístico

“Esta investigación muestra de manera concluyente que estos fallos no son incidentes aislados”, afirma Jean Philip De Tender, director de medios de la UER. “Son sistémicos, transfronterizos y multilingües, y creemos que ponen en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede frenar la participación democrática”.

El peligro, según los investigadores, es que la IA proyecta una sensación de seguridad que en realidad es falsa. “Los asistentes de IA imitan la autoridad periodística, pero sin el rigor periodístico”, señala en su análisis la Radiotelevisión Pública de Georgia (GPB). “Esto crea una peligrosa ilusión de fiabilidad. Los usuarios podrían no cuestionar estos resultados”.

Se genera desconfianza

El estudio llega en un momento en el que se está empezando a confirmar un cambio en el comportamiento de los usuarios, que prefieren cada vez más las “respuestas directas” que ofrece la IA. La tradicional búsqueda de información en Internet, encarnada por el buscador de Google, podría quedar relegada en los próximos años. La propia Google se ha dado cuenta de este cambio.

Sin embargo, la tendencia actual genera un problema en el entorno informativo: los asistentes de IA no son fiables, mientras restan tráfico a los medios contrastados. “Si los asistentes de IA aún no son una forma fiable de acceder a las noticias, pero muchos usuarios confían en ellos, tenemos un problema. Este se agrava porque los asistentes de IA y las experiencias de respuesta directa reducen el tráfico hacia los medios de confianza”, exponen Jean Philip De Tender y Pete Archer, respectivamente, responsable de la investigación y responsable de proyectos de inteligencia artificial generativa en la BBC.

Por ello, los autores de la investigación piden a los desarrolladores de IA que “se tomen este problema en serio” y reduzcan rápidamente este tipo de errores, “especialmente los relacionados con la exactitud y la atribución de fuentes”. También les piden responsabilidad sobre el impacto y la calidad de sus productos, especialmente cuando estos entren en el terreno informativo. “Hasta ahora no han priorizado este asunto, y deben hacerlo ya”, enfatizan.

Por último, también piden desarrollar un sistema que dé a los medios de comunicación mayor control sobre cómo la IA puede sintetizar sus noticias. El uso no autorizado de contenido sigue siendo un problema extendido, agravado por los errores. “Cuando el contenido sí está autorizado, es necesario establecer formatos claros de atribución y cita, con enlaces visibles al contenido original”, concluyen.

LUCILA CONTRERAS / CIUDAD CCS


Noticias Relacionadas