A menudo, millones de personas en todo el mundo están consultando diferentes aspectos a los chatbots de inteligencia artificial; sin embargo, la tasa de información falsa que ofrecen estas herramientas de IA ha crecido en el último año.
Según un informe de la web de análisis NewsGuard, en las respuestas que ofrecen las plataformas de inteligencia artificial, el porcentaje de información falsa pasó de 18 % en 2024 al 35 % el pasado mes de agosto de 2025.
Es bien sabido que los chatbots de inteligencia artificial no son 100 % precisos en sus respuestas, por lo que las personas no deben confiar ciegamente en estas herramientas. Al respecto, se recomienda siempre verificar la información que reciben.
Aumenta el porcentaje de información falsa que ofrecen los chatbots de IA
En el informe, los investigadores tomaron como objeto de evaluación las 10 principales herramientas de inteligencia artificial. Durante el estudio, descubrieron que los modelos de lenguaje algunas veces utilizan fuentes poco confiables para dar sus respuestas.
De forma tal que los datos que obtienen de estas fuentes pueden estar sesgados o ser erróneos. Por ende, la información que le darán a los usuarios no será veraz. NewsGuard destaca que a veces el ecosistema en línea puede ser contaminado de forma intencionada.
Entre los chatbots que se evaluaron en el estudio destaca ChatGPT. Este estaría proporcionando datos falsos el 40 % del tiempo, el mismo porcentaje que Meta. Así lo reseñó la agencia EFE en una publicación.
Los otros sistemas con mayor cuota de redifusión de información falsa son Inflection (56,67 %), Perplexity (46,67 %), Mistral (36,67 %), Copilot (36,67 %), Grok (33,33 %) y You.com (33,33 %).
Por otra parte, los chatbots que tienen el porcentaje más bajo en difusión de datos falsos son Gemini (16,67 %) y Claude (10 %). En este sentido, aunque algunas herramientas tengan una tasa más baja que otras, el deber del usuario es no tomar como verdad absoluta todo lo que digan los chatbots.
Propaganda
Otro dato de NewsGuard en su informe es que los principales chatbots a menudo repiten información proveniente de redes de propagandas. Estas redes se camuflan en medios de comunicación locales para difundir sus narrativas.
En el estudio que realizó la misma web de análisis en 2024, determinó que en el 32 % de los casos, los modelos de IA publicaron información de propaganda extranjera relacionada con “la campaña rusa de desinformación Storm-1516”.
De acuerdo con lo reflejado en el informe, las principales empresas de inteligencia artificial han prometido mejorar sus sistemas. También han establecido alianzas con agencias de noticias estatales para minimizar la desinformación.
Sin embargo, a pesar de estos esfuerzos, sus modelos de IA aún tienen problemas para ofrecer información precisa sobre los eventos actuales. “Los actores maliciosos parecen haber reconocido esta debilidad y la están explotando al inundar el ecosistema informativo con falsedades”, señaló la organización.
En concreto, aunque los chatbots de IA son realmente útiles para realizar algunas tareas, aún tienen debilidades para ofrecer datos veraces, ya que la tasa de información falsa en sus respuestas no ha dejado de aumentar.
Información de EFE / redacción Noti AI
No dejes de leer: Detalles sobre el reciente Informe de Sostenibilidad 2025 de Meta
Sigue nuestras redes sociales y se parte de nuestra comunidad