Santa Ana 29oC   58% H San Salvador 25oC   69% H San Miguel 25oC   69% H Surf City 28oC   74% H
  mapa
EDH

Temporada de Navidad Conciertos en El Salvador Festivales Turismo en El Salvador Noticias

Banner versión desktop Banner versión móvil
Inteligencia artificial

Riesgo de desinformación al usar inteligencia artificial casi se duplicó en un año

La proporción de respuestas falsas en sistemas de IA pasó del 18 % al 35 % en un año, según NewsGuard, lo que plantea un reto para usuarios y desarrolladores.

Avatar del autor

Por EFE
Publicado el 04 de septiembre de 2025

 

TU RESUMEN

Un informe de NewsGuard reveló que la difusión de información falsa por sistemas de inteligencia artificial casi se duplicó en un año, pasando del 18 % en 2024 al 35 % en 2025. ChatGPT y Meta lideran con un 40 % de respuestas erróneas, mientras Claude (10 %) y Gemini (16,67 %) muestran menor incidencia. La investigación advierte que el acceso en tiempo real a la web ha vuelto a los chatbots más vulnerables a narrativas de propaganda, especialmente en eventos de última hora. NewsGuard alerta que esta tendencia puede normalizar un ecosistema informativo contaminado.

Escuchar este artículo

El uso de plataformas de inteligencia artificial para resolver dudas o consultar temas de actualidad se ha vuelto parte de la vida diaria de millones de personas en todo el mundo. Sin embargo, un informe de la web de análisis NewsGuard advierte que la proporción de la desinformación en estos sistemas casi se duplicó en el último año.

De acuerdo con la investigación, en agosto de 2024 la tasa de error era del 18 %, mientras que en agosto de 2025 alcanzó el 35 %.

El estudio analizó a las diez principales herramientas de IA y concluyó que muchas de ellas tratan fuentes poco fiables como si fueran legítimas. Según la organización, el problema se agrava porque los modelos de lenguaje ahora obtienen datos de un ecosistema digital “contaminado, a veces sembrado deliberadamente por vastas redes de actores malintencionados, incluidas operaciones de desinformación rusas”.

El informe también subraya que la carrera por hacer que los chatbots sean más rápidos y receptivos terminó aumentando su vulnerabilidad a difundir propaganda. En el caso de ChatGPT y los sistemas de Meta, el porcentaje de desinformación alcanzó el 40 %.

Te puede interesar: Cómo identificar las fake news, ¿qué hacer para no caer?

Qué plataformas presentan más y menos riesgo de brindar desinformación

NewsGuard detalló que no todas las herramientas muestran el mismo nivel de exposición. Entre las que menos difunden falsedades están Claude, con un 10 %, y Gemini, con 16,67 %. En contraste, Inflection encabezó la lista con un 56,67 %, seguido de Perplexity con un 46,67 %. En posiciones intermedias se encuentran Grok y You.com, ambos con 33,33 %, así como Mistral y Copilot, con un 36,67 %.

Otro hallazgo relevante fue que los principales sistemas repiten con frecuencia narrativas promovidas por redes de propaganda afiliadas a Estados y disfrazadas de medios locales. En julio de 2024, por ejemplo, se documentó que un 32 % de las respuestas de los modelos más usados reproducían mensajes vinculados a la campaña rusa de desinformación conocida como Storm-1516.

Aunque las empresas de tecnología han anunciado alianzas con instituciones y esfuerzos por mejorar la precisión, el informe concluye que aún existen fallos significativos en la verificación de información, especialmente durante eventos en desarrollo.

imagen referente a noticias falsas
Las noticias falsas, mitos y campañas de manipulación se difunden a gran velocidad gracias a algoritmos y emociones. Foto: Inteligencia Artificial.

Un ecosistema vulnerable de desinformación en tiempo real

El análisis también mostró un cambio llamativo: mientras en agosto de 2024 los sistemas de IA optaban por no responder en un 31 % de los casos, un año después esa tasa cayó al 0 %. En ese momento, plataformas como Gemini llegaban a no responder en un 86,67 % de las consultas y Claude en un 70 %.

Para NewsGuard, esta evolución tuvo un costo inesperado. “Con el acceso en tiempo real a la web, los chatbots se volvieron más propensos a amplificar falsedades durante eventos de última hora, justamente cuando los usuarios ya sean ciudadanos curiosos, lectores confundidos o actores maliciosos son más propensos a recurrir a los sistemas de IA”, señaló.

La organización advirtió que, de no corregirse, esta dinámica podría “normalizar un ecosistema informativo contaminado, donde la propaganda extranjera y otras afirmaciones falsas son validadas por las mismas herramientas en las que la gente confía para obtener noticias e información”.

ChatGPT
ChatGPT y los sistemas de Meta, alcanzaron un porcentaje de desinformación del 40 %. Foto AFP/EDH

Un reto para usuarios y desarrolladores

El informe plantea preguntas clave para el futuro inmediato de la inteligencia artificial: ¿cómo equilibrar la velocidad y accesibilidad de la información con la precisión y fiabilidad de las fuentes? Para los usuarios, la advertencia es clara: no se debe confiar ciegamente en lo que responda un chatbot, especialmente en temas sensibles o de actualidad.

Al mismo tiempo, los desarrolladores enfrentan la presión de mejorar sus sistemas de verificación y filtros de calidad sin perder la inmediatez que caracteriza a estas herramientas. El debate seguirá abierto, pero el informe de NewsGuard sugiere que la confianza en la inteligencia artificial dependerá cada vez más de la capacidad para distinguir entre hechos comprobados y narrativas fabricadas.

💡
¿Qué deseas ver ahora?