Cruces Hackeadas: Deepfake Bezos y Riesgos de IA

Recientemente, ha habido una serie de protestas contra los multimillonarios de la tecnología en varias ciudades de la Costa Oeste, incluyendo Seattle. Pero en lugar de las manifestaciones tradicionales, los pasos de peatones han sido intervenidos para reproducir imitaciones satíricas de los multimillonarios cuando los peatones presionan los botones para cruzar.

En varias ciudades de la costa oeste, incluyendo Seattle, las señales de los pasos de peatones han sido el blanco de una serie de protestas contra los multimillonarios de la tecnología. Estas protestas, sin embargo, han adoptado una forma poco convencional, utilizando audio deepfake para transmitir mensajes satíricos.

Específicamente, en Seattle, al menos cinco pasos de peatones fueron hackeados para reproducir impresiones de audio de prominentes multimillonarios cuando los peatones presionaban el botón para cruzar. En lugar de la voz automatizada estándar, los individuos escuchaban mensajes imitando a Jeff Bezos, el fundador de Amazon. El audio incluía declaraciones como: “Hola, soy Jeff Bezos. Este paso de peatones está patrocinado por Amazon Prime con un mensaje importante. Por favor, no graven a los ricos, de lo contrario todos los demás multimillonarios se mudarán a Florida, también”. Las grabaciones concluían con una canción del comediante Bo Burnham.

El Departamento de Transporte de Seattle (SDOT) confirmó que las señales de los pasos de peatones fueron hackeadas. Incidentes similares fueron reportados en Silicon Valley, donde las señales reproducían grabaciones que sonaban como Mark Zuckerberg de Meta y Elon Musk de Tesla. Amazon, Meta y Tesla no respondieron a las solicitudes de comentarios.

El impacto de estos hackeos se sintió en la comunidad. Ava Pakzad, estudiante de la Universidad de Washington, encontró la broma divertida. Sin embargo, Maeceon Mace, que trabaja cerca de la sede de Amazon, expresó su preocupación, afirmando que el incidente le hizo preocuparse por la seguridad de otros sistemas.

El SDOT ha tomado medidas en respuesta a los hackeos. Deshabilitaron temporalmente las comunicaciones en algunos pasos de peatones que parecían estar comprometidos de forma inalámbrica. Además, están colaborando con el proveedor de los botones de los pasos de peatones para mejorar las medidas de seguridad.

La facilidad con la que se ejecutaron estos hackeos es un punto clave. David Kohlbrenner, codirector del Laboratorio de Investigación de Seguridad y Privacidad de la Universidad de Washington, explicó que las señales de los pasos de peatones no están diseñadas pensando en una seguridad robusta. Están diseñadas para ser fáciles de usar para un mantenimiento y actualizaciones rápidos.

Kohlbrenner elaboró además sobre la vulnerabilidad del sistema. Se puede acceder a cada señal de paso de peatones utilizando una aplicación de teléfono y Bluetooth, lo que permite actualizaciones fáciles. Sin embargo, las señales pueden haber sido comprometidas debido al uso de contraseñas predeterminadas proporcionadas por el fabricante, que a menudo son simples y fáciles de adivinar. Esto permitiría a cualquiera conectarse al dispositivo y cargar sus propios archivos de sonido.

La tecnología detrás del audio deepfake también es relativamente accesible. Cecilia Aragon, investigadora de la UW especializada en audio generado por IA, explicó que la clonación de voz es la clave. Con solo unas pocas muestras de audio de la voz de una persona, la IA puede aprender sus patrones de habla, acento e inflexión, lo que le permite generar nuevo contenido de audio.

Aragon destacó las implicaciones preocupantes de esta tecnología. Señaló que cualquier figura pública que haya sido grabada es vulnerable a este tipo de falsificación. La falta de regulaciones estrictas sobre la clonación de voz agrava aún más el problema.

En conclusión, los hackeos de los pasos de peatones son una demostración de la vulnerabilidad de la infraestructura pública y la facilidad con la que se puede utilizar la tecnología deepfake. El incidente subraya la necesidad de medidas de seguridad más sólidas, como la actualización de las contraseñas predeterminadas, y el potencial de uso indebido del audio generado por IA.

Las señales peatonales de Seattle fueron hackeadas para reproducir audio satírico deepfake de multimillonarios tecnológicos, demostrando vulnerabilidades en la infraestructura de la ciudad y la facilidad de la tecnología de clonación de voz. Expertos sugieren que contraseñas predeterminadas y herramientas de IA disponibles facilitaron el hackeo, resaltando la necesidad de medidas de seguridad más fuertes y actualizaciones de contraseñas, a la vez que se plantean preocupaciones sobre el potencial mal uso de la IA generativa.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *