China exige etiquetado de contenido generado por IA

China exigirá que todo contenido generado por inteligencia artificial (IA), incluyendo texto, audio, video, imágenes y escenas virtuales, sea claramente etiquetado a partir del 1 de septiembre de 2025. Esta regulación, anunciada por la Administración del Ciberespacio de China (CAC), tiene como objetivo combatir la difusión de desinformación y prevenir la confusión entre los usuarios de internet a medida que avanza la tecnología de IA.

China se prepara para implementar regulaciones integrales que exigen el etiquetado claro de todo el contenido generado por IA, una medida significativa destinada a mejorar la transparencia y combatir la posible propagación de desinformación. Esta nueva política, anunciada por la Administración del Ciberespacio de China (CAC), el censor de internet de la nación, exige que el texto, audio, video, imágenes e incluso escenas virtuales generados por IA sean explícitamente señalados para las audiencias. Además, se requiere que estas etiquetas se incrusten dentro de los metadatos del contenido, lo que garantiza un sistema de identificación más robusto y rastreable. La publicación por parte de la CAC de una transcripción que describe estas medidas, similar a una sección de preguntas frecuentes, proporciona una mayor comprensión del alcance y la implementación de esta política, que se insinuó por primera vez en los borradores de planes en septiembre pasado.

Entrando en vigor el 1 de septiembre de 2025, esta regulación responsabiliza a los proveedores de servicios, incluidos los modelos de lenguaje grandes (LLM), de garantizar que todo el contenido generado y sintetizado lleve estas etiquetas explícitas. La directiva es amplia y abarca una amplia gama de tipos de datos, desde texto e imágenes tradicionales hasta formatos más complejos como videos, audio y entornos virtuales. Más allá de los creadores de contenido, la regulación también extiende su alcance a las tiendas de aplicaciones, exigiéndoles que verifiquen que las aplicaciones que alojan cumplan con estas nuevas reglas, creando un enfoque de múltiples capas para la aplicación.

Si bien la regla general requiere el etiquetado, existen disposiciones para que los usuarios soliciten contenido generado por IA sin etiquetar en circunstancias específicas, como para “preocupaciones sociales y necesidades industriales”. Sin embargo, esta exención viene con estipulaciones. La aplicación generadora debe reiterar claramente el requisito de etiquetado al usuario y, lo que es crucial, la aplicación debe registrar esta información para facilitar la trazabilidad. La responsabilidad final de agregar la etiqueta generada por IA y los metadatos en estos casos específicos recae en la persona o entidad del usuario final, lo que traslada la carga del cumplimiento en estos casos.

Un componente clave de la regulación es la estricta prohibición contra la eliminación maliciosa, la manipulación, la falsificación o el ocultamiento de estas etiquetas de IA. Esto incluye no solo el acto de eliminar las etiquetas y los metadatos existentes, sino también la provisión de herramientas diseñadas para facilitar tales acciones. Además, la regulación prohíbe explícitamente la adición de estos identificadores de IA a los datos creados por humanos, lo que impide la caracterización errónea del contenido auténtico como generado artificialmente. Esta doble prohibición tiene como objetivo mantener la integridad tanto del contenido generado por IA como del creado por humanos.

El objetivo principal detrás de esta política, según lo articulado por el PCCh a través de la CAC, es controlar la difusión de desinformación e impedir que los usuarios de Internet sean engañados por el contenido generado por IA. Al exigir una identificación clara, el gobierno pretende capacitar a las personas para distinguir entre el contenido creado por humanos y el generado por máquinas. Si bien aún no se han prescrito castigos específicos por violaciones, la amenaza inherente de acciones legales por parte del gobierno chino sirve como un elemento disuasorio significativo, lo que subraya la seriedad con la que se harán cumplir estas regulaciones.

Esta medida de China no es un incidente aislado en el panorama global de la regulación de la IA. La Unión Europea, por ejemplo, promulgó su Ley de Inteligencia Artificial en 2024, lo que demuestra un creciente esfuerzo internacional para regular el desarrollo y el uso de las tecnologías de IA. Si bien algunos pueden reaccionar negativamente al enfoque de China, particularmente dado el papel de la CAC en la administración del “Gran Cortafuegos”, que limita y controla el acceso a Internet dentro de China, los beneficios potenciales de esta política de etiquetado en la reducción de la desinformación son innegables. A medida que los LLM de IA se vuelven cada vez más sofisticados, la capacidad de identificar claramente el contenido generado artificialmente será aún más crucial para ayudar a las personas a discernir entre eventos reales y los creados por máquinas, lo que contribuirá a un entorno en línea más informado.

China exigirá etiquetado claro de todo contenido generado por IA (texto, audio, video, imágenes, escenas virtuales) a partir del 1 de septiembre de 2025 para combatir la desinformación. Aunque muchos ven esto como un paso positivo para distinguir la realidad de la fabricación por IA, persisten preocupaciones sobre la posible aplicación selectiva y la erosión de la confianza. A medida que la influencia de la IA crece, la alfabetización mediática crítica y la vigilancia son primordiales.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *