La creciente preocupación en torno a la precisión de la información generada por las plataformas de inteligencia artificial (IA) ha tomado un giro alarmante. Según un análisis reciente, la tasa de presencia de información falsa en las respuestas de estos sistemas casi se ha duplicado en un año, pasando del 18% en agosto de 2024 al 35% en el mismo mes de 2025. Este informe, que evalúa las diez principales herramientas de IA, plantea interrogantes cruciales sobre la fiabilidad de las fuentes que alimentan estos modelos de lenguaje.
Los hallazgos indican que los algoritmos están tratando fuentes poco confiables como si fuesen creíbles. Esto se agrava por la influencia de actores maliciosos que, con intenciones de desinformar, han sembrado el ecosistema informático con contenidos erróneos. Un ejemplo alarmante mencionado en el análisis es que el modelo más utilizado, ChatGPT, produce información falsa el 40% del tiempo, un porcentaje similar al de otras plataformas como Meta.
En contraste, algunos modelos demuestran una menor tasa de redifusión de información falsa, como Claude (10%) y Gemini (16,67%). Sin embargo, otros, como Inflection (56,67%) y Perplexity (46,67%), muestran cifras considerablemente más altas. La proliferación de narrativas respaldadas por redes de propaganda afiliadas a Estados sigue siendo una preocupación, con un notable 32% de casos donde se detectó propaganda extranjera vinculada a la campaña rusa de desinformación Storm-1516.
A pesar de los esfuerzos de las principales empresas de IA por mejorar sus sistemas y establecer alianzas con agencias de noticias reconocidas, los modelos de IA aún fallan en proporcionar datos precisos sobre eventos actuales. Este análisis también destaca que los actores maliciosos están reconociendo y explotando estas debilidades al inundar la red con falsedades.
Una mejora notable reportada es la drástica reducción en las tasas de no respuesta, que han descendido del 31% en agosto de 2024 a 0% un año después, indicando una capacidad inmediata de respuesta de los chatbots. Sin embargo, esta rapidez de acceso a la web ha venido acompañada de un riesgo significativo: durante situaciones críticas de última hora, los chatbots se vuelven más propensos a amplificar desinformación.
La advertencia resulta clara: si esta dinámica no se corrige, hay un riesgo real de normalizar un ecosistema informativo contaminado donde la propaganda y las afirmaciones falsas son validadas por las mismas herramientas en las que los usuarios confían para obtener información.
Los desarrolladores y usuarios de estas tecnologías deben ser conscientes de la importancia de filtrar y verificar la información que respaldan estas herramientas de IA, en un momento donde la confianza en la información se vuelve más crucial que nunca.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


