|
Getting your Trinity Audio player ready...
|
La tasa a la que las plataformas de inteligencia artificial (IA) reproducen informaciones falsas en sus respuestas casi se ha duplicado en un año, según un informe publicado este jueves por la web de análisis NewsGuard.
El estudio señala que el porcentaje pasó del 18 % en agosto de 2024 al 35 % en agosto de 2025, tras evaluar a las diez principales herramientas de IA. El análisis advierte que los modelos de lenguaje suelen tratar como fiables a fuentes poco confiables y beben de un ecosistema informativo cada vez más contaminado, «a veces sembrado deliberadamente por vastas redes de actores malintencionados, incluidas operaciones de desinformación rusas».
De acuerdo con NewsGuard, la presión por hacer que los chatbots sean más receptivos los ha vuelto también más propensos a difundir propaganda. El sistema más popular, ChatGPT, fue identificado como fuente de datos falsos el 40 % de las veces, el mismo porcentaje que Meta.
En el extremo opuesto, Claude registró el índice más bajo (10 %), seguido por Gemini (16,67 %). En cambio, los sistemas más propensos a replicar desinformación fueron Inflection (56,67 %) y Perplexity (46,67 %). En un rango intermedio se ubicaron Grok y You.com (33,33 % cada uno), así como Mistral y Copilot (36,67 %).
El informe subraya que estos modelos repiten con frecuencia narrativas diseñadas por redes de propaganda estatales, disfrazadas de medios locales legítimos. En julio de 2024, NewsGuard ya había detectado que en el 32 % de los casos los diez chatbots más destacados difundieron mensajes vinculados a la campaña rusa de desinformación Storm-1516.
Aunque las empresas de IA han firmado compromisos para reforzar sus sistemas y cooperar con agencias estatales de noticias, los modelos siguen fallando a la hora de ofrecer información precisa sobre eventos actuales. «Los actores maliciosos parecen haber reconocido esta debilidad y la están explotando al inundar el ecosistema informativo con falsedades», advirtió la organización.
Una de las mejoras notables registradas fue la reducción de las tasas de no respuesta, que pasaron del 31 % en 2024 al 0 % en 2025. Sin embargo, NewsGuard advirtió que esta mejora tuvo un costo: con el acceso en tiempo real a la web, los sistemas se volvieron más vulnerables a amplificar falsedades en eventos de última hora, justo cuando los usuarios —ciudadanos, lectores confundidos o incluso actores maliciosos— más recurren a ellos.
La organización concluyó que, de no corregirse esta tendencia, se corre el riesgo de normalizar un ecosistema informativo contaminado, en el que la propaganda extranjera y las afirmaciones falsas terminen validadas por las mismas herramientas en las que la gente confía para informarse.








