El auge de la tecnología de avatares con inteligencia artificial está creando un nuevo dilema para los actores: el posible uso indebido de su imagen. Cada vez más, los artistas con problemas económicos están vendiendo los derechos de sus rostros y voces por sumas relativamente pequeñas, a menudo sin comprender plenamente las implicaciones. Ahora, algunos expresan arrepentimiento a medida que sus avatares de IA se utilizan de maneras que consideran vergonzosas, perjudiciales o incluso dañinas, lo que pone de manifiesto una creciente preocupación por el consentimiento y el control en la era de la inteligencia artificial.
En un escalofriante eco de la serie distópica *Black Mirror*, los actores se encuentran cada vez más lamentando la decisión de vender sus semejanzas para su uso en videos generados por IA. Estos actores, a menudo con problemas de liquidez y quizás ingenuamente inconscientes de las posibles ramificaciones, ahora se enfrentan a las consecuencias de sus elecciones, según informa AFP.
Un ejemplo es Adam Coy, un actor de 29 años residente en Nueva York. Licenció su rostro y voz a una empresa llamada MCM por solo $1,000 durante un año. Admite que no consideró completamente las implicaciones, sin preguntarse: “¿Estoy cruzando una línea al hacer esto?”. Esta falta de previsión condujo a una situación embarazosa cuando la madre de su pareja descubrió videos que presentaban su semejanza de IA como un agorero que predecía desastres.
De manera similar, el actor surcoreano Simon Lee experimentó una sensación similar de arrepentimiento. Su avatar de IA se utilizó para promocionar “curas de salud cuestionables en TikTok e Instagram”, lo que le llevó a sentir vergüenza de que su rostro estuviera vinculado a lo que percibía como estafas obvias. Esto resalta el potencial de daño a la reputación y la explotación de las imágenes de los actores de formas que nunca pretendieron.
A medida que la tecnología de avatares de IA continúa avanzando, se espera que el atractivo de licenciar semejanzas solo aumente. Los incentivos financieros son cada vez más atractivos, y el proceso en sí parece relativamente simple. Synthesia, una empresa con sede en el Reino Unido especializada en avatares de IA, ha visto dispararse su valoración, duplicándose a $2.1 mil millones en enero, según CNBC. Además, Synthesia recientemente llegó a un acuerdo de $2 mil millones con Shutterstock, prometiendo hacer que sus avatares de IA sean aún más realistas, según informó The Guardian.
Para incentivar aún más a los actores, Synthesia ha lanzado un fondo de capital. A los actores cuyos avatares de IA sean particularmente populares o aparezcan en las campañas de marketing de Synthesia se les otorgarán opciones en “un grupo de acciones de nuestra empresa” por valor de $1 millón. Estas adjudicaciones de capital se consolidarán mensualmente durante un período de hasta cuatro años, proporcionando un beneficio potencial a largo plazo.
El proceso de vender la propia semejanza de IA parece engañosamente simple. Se requiere que los actores realicen una serie de expresiones faciales frente a una pantalla verde, y luego reciben su pago. Sin embargo, esta transacción aparentemente sencilla a menudo enmascara complejas ramificaciones legales.
Alyssa Malchiodi, una abogada que defiende a los actores, enfatiza que muchos actores no entienden completamente los contratos que están firmando. Afirma que los contratos a menudo contienen “cláusulas consideradas abusivas”, incluyendo la concesión de “explotación mundial, ilimitada, irrevocable, sin derecho de retirada”. Esta falta de comprensión y los términos desfavorables de estos contratos dejan a los actores vulnerables a la explotación y al posible daño a su reputación.
Los actores lamentan cada vez más vender su imagen para el uso de la IA, enfrentando representaciones embarazosas o perjudiciales a pesar de los pagos iniciales. Con la rápida expansión de la tecnología de avatares de IA y empresas como Synthesia, que ofrecen incentivos lucrativos como acciones, los actores a menudo carecen de una comprensión completa de los contratos potencialmente explotadores que firman, otorgando derechos amplios e irreversibles. Esto plantea preguntas urgentes sobre la protección de los actores y las implicaciones éticas del contenido generado por IA.
Leave a Reply