Fantasías MAGA Generadas por IA: Un Gancho con Anuncios Extraños

Un nuevo informe revela un fenómeno sorprendente en YouTube: videos pro-MAGA generados por inteligencia artificial que fabrican historias y son consumidos ávidamente por espectadores que buscan validar sus creencias. Estos videos, que a menudo presentan figuras del universo Trump, están construidos enteramente a partir de narraciones e imágenes de IA, creando una realidad digital alternativa.

El artículo explora el auge de los videos pro-MAGA generados por IA en YouTube, destacando su capacidad para crear una realidad alternativa para una audiencia específica. Estos videos, que a menudo presentan historias fabricadas y visuales generados por IA, han encontrado un nicho al atender a aquellos que buscan contenido que se alinee con sus creencias existentes.

Por ejemplo, cuentas como Elite Stories y Mr. Robe Stories se identifican como los principales contribuyentes a este fenómeno. Estos canales producen videos que son completamente generados por IA, desde la narración hasta las imágenes que la acompañan. El contenido típicamente involucra narrativas ficticias que retratan a figuras del universo Trump de manera positiva, a menudo presentando escenarios donde triunfan sobre adversarios percibidos.

Elite Stories, por ejemplo, que desde entonces ha sido eliminado de YouTube, había acumulado más de 160,000 seguidores. Sus videos incluían títulos como “Una niña le pregunta a Trump sobre Dios – Su respuesta la hace llorar”, mostrando el tipo de contenido que resonaba con su audiencia. De manera similar, Mr. Robe Stories, con más de 41,000 suscriptores, ofrecía historias donde individuos perjudicados por figuras de Trump son finalmente derrotados por personajes como Barron Trump y Karoline Leavitt.

La popularidad de estos videos varía, algunos atraen solo unos pocos cientos de vistas, mientras que otros obtienen millones. El video “Barron Trump SE LEVANTA cuando un profesor se burla de Melania – Su respuesta sorprende a todos” ejemplifica esto, superando el millón de vistas y generando comentarios de espectadores que aceptan fácilmente la narrativa como factual. Esto demuestra el poder de estos videos para influir y reforzar las creencias existentes.

A pesar de las exenciones de responsabilidad que indican que los videos son ficticios, muchos espectadores optan por ignorarlos, lo que indica una disposición a creer en el contenido. Esto resalta una tendencia preocupante donde los individuos priorizan las narrativas que confirman sus sesgos, incluso si son demostrablemente falsas.

Además, el artículo señala la naturaleza problemática de los anuncios que se sirven junto a estos videos. En modo incógnito, el autor encontró anuncios que promocionaban afirmaciones pseudocientíficas, como la afirmación de que el Alzheimer es causado principalmente por beber agua a la temperatura incorrecta. Esto plantea preguntas sobre la responsabilidad de la plataforma en la moderación del contenido y la publicidad que aparece junto a estos videos generados por IA.

La respuesta de YouTube al problema incluye una declaración que apoya la Ley NO FAKES de 2025, un proyecto de ley propuesto destinado a proteger la voz y la imagen de las personas de la duplicación de IA. Sin embargo, la plataforma reconoce que tiene trabajo por hacer en la moderación del contenido generado por IA.

Un portavoz de YouTube declaró que sus Directrices de la comunidad se aplican a todo el contenido, incluido el contenido generado por IA, y que el canal en cuestión fue cancelado por violar las políticas de spam. El portavoz también mencionó que su proceso de privacidad se puede utilizar para solicitar la eliminación de contenido generado por IA que simule la imagen de alguien. Esto sugiere que, si bien YouTube está tomando medidas para abordar el problema, el problema de la desinformación generada por IA y su impacto potencial en las audiencias sigue siendo un desafío importante.

Los “videos basura” generados por IA que fabrican historias alineadas con MAGA están ganando popularidad en YouTube, atrayendo a una audiencia significativa y generando ingresos a pesar de las advertencias. El contenido, a menudo con figuras como Baron Trump y Karoline Leavitt, explota el deseo de confirmación de los espectadores y difunde desinformación, amplificada por anuncios preocupantemente dirigidos. Si bien YouTube reconoce el problema y apoya la legislación de protección de la IA, persisten importantes desafíos de moderación, lo que destaca la necesidad urgente de que las plataformas combatan proactivamente la propagación de falsedades generadas por IA y protejan a las audiencias vulnerables.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *