El organismo de control de la privacidad Noyb está impugnando el uso planeado por Meta de los datos de usuarios de la UE para entrenar modelos de inteligencia artificial. El Reglamento General de Protección de Datos (RGPD) otorga a los ciudadanos de la UE derechos sobre sus datos personales, incluido el derecho a oponerse a su procesamiento. Noyb argumenta que el reciente proceso de notificación y los requisitos de exclusión voluntaria de Meta son problemáticos y podrían violar el RGPD.
Noyb, un organismo de control de la privacidad, ha tomado medidas contra Meta, emitiendo una carta de cese y desista con respecto al próximo entrenamiento de IA de Meta en la Unión Europea. Esta acción amenaza con una posible demanda colectiva de mil millones de dólares, lo que indica la seriedad de la situación.
El núcleo de la preocupación de Noyb reside en cómo Meta está manejando los datos de los usuarios en relación con su entrenamiento de IA. Específicamente, Meta informó recientemente a los usuarios de la UE que tenían un tiempo limitado, hasta el 27 de mayo, para optar por no permitir que sus publicaciones públicas se utilizaran en los conjuntos de datos de entrenamiento de IA de Meta. Este período de exclusión voluntaria es un elemento crucial en la disputa.
Además, Noyb destaca que Meta está exigiendo a los usuarios que previamente optaron por no participar en el entrenamiento de IA en 2024 que vuelvan a optar por no participar. Esto crea un problema importante, ya que no volver a optar por no participar podría significar perder permanentemente la capacidad de evitar que sus datos se utilicen en los modelos de IA de Meta. Esto es particularmente preocupante porque, como señala Noyb, es probable que los datos de entrenamiento no se eliminen fácilmente, lo que hace que las consecuencias de perder el plazo para volver a optar por no participar sean potencialmente irreversibles.
Noyb alega que esta práctica viola el Reglamento General de Protección de Datos (RGPD). Según Noyb, las acciones de Meta contradicen sus promesas anteriores y socavan la confianza de los usuarios. Esto se debe a que, según la carta de Noyb, Meta está esencialmente diciendo a los usuarios que sus objeciones anteriores al entrenamiento de IA en virtud del artículo 21, apartado 2, del RGPD no se respetarán a menos que vuelvan a objetar.
En respuesta a estas acusaciones, Meta ha disputado públicamente las afirmaciones de Noyb. En una publicación de blog, Meta declaró que “honrarían todos los formularios de objeción que ya hemos recibido, así como los que se presenten recientemente”. Esta declaración intenta tranquilizar a los usuarios y mitigar los daños causados por las acusaciones de Noyb.
Sin embargo, Noyb sugiere que la falta de claridad en torno al proceso de exclusión voluntaria dificulta que los usuarios confíen en que realmente pueden optar por no participar en el entrenamiento de IA. La complejidad del proceso y la posibilidad de que los datos se utilicen a pesar de las objeciones anteriores plantean serias dudas sobre el compromiso de Meta con la privacidad de los usuarios.
Añadiendo a la complejidad, Noyb señala los argumentos pasados de Meta con respecto a las transferencias de datos entre la UE y EE. UU. Meta argumentó previamente que su red social es un único sistema que no diferencia entre los usuarios de la UE y los que no lo son, ya que muchos elementos se comparten. Esta admisión plantea serias dudas sobre la capacidad de Meta para diferenciar técnicamente entre los usuarios que han optado por no participar y los que no.
Las implicaciones de las supuestas acciones de Meta son significativas. La posibilidad de una demanda colectiva de mil millones de dólares demuestra lo que está en juego financieramente. Además, la cuestión central gira en torno a la privacidad de los datos de los usuarios y el derecho a controlar cómo se utiliza la información personal, particularmente en el contexto del entrenamiento de IA. El resultado de esta disputa podría tener consecuencias de gran alcance sobre cómo las empresas tecnológicas manejan los datos de los usuarios y cumplen con las regulaciones del RGPD.
El grupo de defensa de la privacidad Noyb impugna las prácticas de entrenamiento de IA de Meta en la UE, alegando que sus recientes notificaciones y requisitos de re-opt-in para excluir datos violan el GDPR. Noyb amenaza con una demanda colectiva multimillonaria para bloquear el entrenamiento de IA, a pesar de las garantías de Meta de respetar las objeciones. ¿Esta batalla legal obligará a los gigantes tecnológicos a priorizar los derechos de los usuarios sobre el desarrollo de la IA, o es solo el comienzo de una larga lucha?
Leave a Reply