Una red de desinformación con sede en Moscú llamada “Pravda” está aprovechando la forma en que los chatbots de inteligencia artificial aprenden al alimentarlos deliberadamente con contenido falso y pro-Kremlin. Esta estrategia tiene como objetivo manipular las respuestas de los modelos de IA, en lugar de atacar directamente a los lectores humanos, y ha resultado en una cantidad significativa de propaganda rusa integrada en los sistemas de IA occidentales.
Una sofisticada red de desinformación, operando desde Moscú y que se hace llamar “Pravda” (verdad en ruso), está manipulando activamente los chatbots de inteligencia artificial, no atacando directamente a los lectores humanos, sino corrompiendo los datos que utilizan estos sistemas de IA para aprender y generar respuestas. Esto representa una estrategia novedosa y preocupante en la continua batalla contra la desinformación, desplazando el foco de influir en los individuos a influir en las propias herramientas que difunden información. La investigación de NewsGuard ha confirmado esta operación, destacando su escala y potencial impacto en los sistemas de IA occidentales.
El núcleo de la estrategia de Pravda implica inundar deliberadamente internet con afirmaciones falsas y propaganda diseñadas para distorsionar cómo los modelos de lenguaje grandes procesan y presentan noticias e información. En lugar de intentar persuadir a los individuos directamente, la red se centra en manipular los datos que alimentan los chatbots de IA. Esto se logra saturando los resultados de búsqueda y los rastreadores web con narrativas pro-Kremlin, asegurando que estas narrativas sean indexadas y posteriormente incorporadas por los sistemas de IA durante su entrenamiento y actualizaciones de datos en curso. Este enfoque evita los métodos tradicionales de combatir la desinformación, que a menudo se centran en desacreditar las afirmaciones falsas presentadas a las audiencias humanas.
El volumen de desinformación que produce Pravda es asombroso. Según los hallazgos de NewsGuard, la red generó un masivo 3.600.000 de artículos solo en 2024. Esta inmensa producción está diseñada específicamente para ser recogida por rastreadores web e incorporada en los conjuntos de datos utilizados para entrenar y actualizar los modelos de lenguaje grandes. Este objetivo deliberado de los datos de entrenamiento de la IA subraya la comprensión de la red sobre las vulnerabilidades inherentes a cómo los sistemas de IA aprenden y operan. La escala de esta operación sugiere una inversión significativa de recursos y un esfuerzo calculado para corromper sistemáticamente el ecosistema de la información.
Los orígenes de esta estrategia se remontan a una conferencia en Moscú el pasado mes de enero, donde el fugitivo estadounidense y propagandista con sede en Moscú, John Mark Dougan, delineó públicamente el potencial de influir en los sistemas de IA. Dougan, hablando ante una conferencia de funcionarios rusos, declaró: “Al impulsar estas narrativas rusas desde la perspectiva rusa, en realidad podemos cambiar la IA mundial”. Esta declaración prefiguró las tácticas actuales empleadas por Pravda, demostrando una clara comprensión de cómo aprovechar la IA como un potente canal de distribución para la desinformación del Kremlin. Las declaraciones de Dougan ofrecen una visión escalofriante del pensamiento estratégico detrás de esta operación, revelando un plan deliberado para manipular el panorama de la información a través de la IA.
La efectividad de la estrategia de Pravda es alarmante, como lo demuestra la auditoría de NewsGuard de los principales chatbots de IA. La auditoría reveló que estos chatbots repetían narrativas falsas blanqueadas por la red Pravda un asombroso 33 por ciento del tiempo. Esta validación de la predicción de Dougan demuestra el impacto tangible de los esfuerzos de la red, confirmando que la desinformación del Kremlin se incorpora ahora rutinariamente en los resultados de los sistemas de IA occidentales. La alta tasa de repetición sugiere un problema sistémico, lo que indica que los modelos de IA están extrayendo constantemente de fuentes de datos corruptas.
Las implicaciones de esta contaminación de la IA son de gran alcance. A medida que los chatbots de IA se utilizan cada vez más para noticias e información, la inclusión de propaganda del Kremlin en sus respuestas plantea una amenaza significativa para la comprensión y la toma de decisiones del público. Los usuarios pueden estar expuestos inadvertidamente a información sesgada o falsa, sin darse cuenta de la fuente o la agenda subyacente. Esto puede erosionar la confianza en los sistemas de IA y complicar aún más el ya desafiante panorama de la guerra de la información. La naturaleza sutil de esta manipulación, incrustada en los resultados aparentemente objetivos de la IA, la hace particularmente insidiosa.
Abordar este problema requiere un enfoque multifacético. Los desarrolladores de IA deben priorizar la calidad y la fiabilidad de los datos utilizados para entrenar sus modelos. Esto incluye la implementación de mecanismos de filtrado robustos para identificar y eliminar la desinformación, así como la diversificación de las fuentes de datos para reducir la dependencia de los sitios web potencialmente comprometidos. Además, la transparencia con respecto a las fuentes de datos y las metodologías de entrenamiento es crucial para permitir el escrutinio y la rendición de cuentas externas. La investigación de NewsGuard destaca la necesidad urgente de medidas proactivas para salvaguardar los sistemas de IA de la manipulación y garantizar la integridad de la información que proporcionan. Finalmente, educar al público sobre el potencial de sesgo de la IA y la importancia de evaluar críticamente la información de todas las fuentes es esencial para mitigar el impacto de esta amenaza emergente.
Una red con sede en Moscú, “Pravda”, está inyectando deliberadamente propaganda rusa en los datos de los chatbots de IA, manipulando la forma en que estos sistemas procesan y presentan noticias. Esto ha resultado en una cantidad significativa de información falsa – más de 3,6 millones de artículos – que se integra en los resultados de IA occidentales, con los chatbots repitiendo estas narrativas más de un tercio de las veces. La manipulación, predicha por el propagandista John Mark Dougan, demuestra una nueva y preocupante frontera en las campañas de desinformación.
Se necesita urgentemente una mayor investigación sobre la integridad de los datos de entrenamiento de la IA.
Leave a Reply