En países con profundas divisiones políticas, la proliferación de imágenes cargadas emocionalmente, memes de odio y videos burlones en las redes sociales puede escalar significativamente las tensiones y aumentar la probabilidad de violencia. Este artículo explora cómo el auge del contenido visual, particularmente las imágenes manipuladas, en plataformas como Telegram sirve como un fuerte indicador de violencia masiva inminente y destaca la necesidad de un enfoque combinado de inteligencia artificial y experiencia humana para interpretar estas narrativas complejas.
En una nación políticamente fracturada, la afluencia de contenido de odio en las redes sociales, incluyendo imágenes, memes y videos, eleva significativamente el riesgo de violencia. Esto se debe a que las redes sociales, particularmente con su énfasis en el contenido visual, se han convertido en una herramienta poderosa para influir en la opinión pública y exacerbar las tensiones existentes.
El cambiante panorama de las redes sociales, con sus sofisticadas tecnologías, facilita la propagación de desinformación y propaganda. Estas tecnologías se emplean para promover creencias específicas, deshumanizar a los oponentes, justificar la violencia y sembrar dudas. El uso de imágenes, ya sean manipuladas o no, tiene un impacto particularmente potente, a menudo superando la influencia del contenido basado en texto.
El desafío radica en la dificultad de los sistemas de IA para comprender las imágenes en comparación con el texto. Si bien es relativamente fácil rastrear el discurso de odio basado en texto, identificar y comprender el contexto de imágenes manipuladas, como las que retratan a soldados ucranianos con símbolos nazis, es significativamente más complejo. Sin embargo, la prevalencia de tales imágenes está aumentando, lo que hace crucial analizar el contenido visual de manera efectiva.
La investigación indica que los cambios en las publicaciones en redes sociales, especialmente aquellas con imágenes, sirven como fuertes indicadores de una violencia masiva inminente. Por ejemplo, un estudio que analizó las dos semanas previas a la invasión rusa de Ucrania en 2022 reveló un aumento dramático en la propaganda en línea.
Específicamente, hubo un aumento de casi el 9.000% en el número de publicaciones y un aumento de más del 5.000% en las imágenes manipuladas de los milbloggers rusos. Esto demuestra la intensidad de la campaña en línea de Rusia para influir en las opiniones y justificar la invasión. Esto subraya la necesidad de una mejor monitorización y análisis del contenido visual en las redes sociales.
El análisis de las publicaciones e imágenes de los milbloggers rusos, incluyendo casi 6 millones de publicaciones y más de 3 millones de imágenes de 989 cuentas en Telegram, permitió un examen detallado. Se utilizaron herramientas de IA para detectar alteraciones y manipulaciones de imágenes.
Un ejemplo de esta manipulación es un meme que se burla del periodista Arkady Babchenko, cuya muerte fue fingida para exponer un complot de asesinato. El meme usaba la frase “los gamers no mueren, reaparecen”, trivializando la situación de Babchenko e ilustrando el uso de imágenes manipuladas para transmitir mensajes políticos.
El análisis estadístico reveló un aumento masivo tanto en el número de imágenes como en la extensión de sus manipulaciones antes de la invasión. Esto resalta el uso estratégico del contenido visual para promover narrativas e influir en la percepción pública.
Si bien los sistemas de IA sobresalen en la detección de falsificaciones de imágenes, carecen de la capacidad de comprender el contexto político de las imágenes. Por lo tanto, la colaboración entre científicos de IA y científicos sociales es fundamental para una interpretación precisa.
Los sistemas de IA categorizan las imágenes por similitud, lo que permite a los expertos en la materia analizar los grupos de imágenes en función del contenido narrativo y los significados culturalmente específicos. Por ejemplo, una imagen falsa del presidente francés Emmanuel Macron con el gobernador ucraniano Vitalii Kim, que podría no tener sentido para un científico de IA, puede ser interpretada por los politólogos como un mensaje que refuerza las dudas ucranianas sobre sus aliados europeos.
El cambio a los medios visuales presenta un nuevo tipo de datos que requiere un estudio detallado. El análisis de imágenes permite a los investigadores comprender cómo los adversarios se enmarcan entre sí, lo que puede contribuir al conflicto político.
Al estudiar el contenido visual, los investigadores pueden rastrear la propagación de historias e ideas, obteniendo información sobre los factores psicológicos y sociales involucrados. Esto es particularmente importante para identificar métodos sutiles de influencia. Estos proyectos pueden contribuir a los esfuerzos de alerta temprana, reduciendo los riesgos de violencia e inestabilidad.
La proliferación de imágenes y memes manipulados en redes sociales, especialmente en momentos de agitación política, predice la violencia masiva. La IA puede detectar alteraciones, pero comprender el contexto político requiere colaboración entre IA y científicos sociales. Analizar esta “guerra de memes” visual ofrece información crucial sobre cómo se construyen narrativas y se alimenta el conflicto, exigiendo un enfoque proactivo para monitorear y mitigar los riesgos de inestabilidad.
Leave a Reply