Una controvertida disposición en un proyecto de ley propuesto en la Cámara de Representantes de Estados Unidos busca impedir preventivamente que los estados regulen la inteligencia artificial y los sistemas automatizados de toma de decisiones durante una década. Esta medida, agregada a último momento por los republicanos de la Cámara, surge a medida que crecen las preocupaciones sobre el potencial de sesgo y daño causado por estos sistemas, y a medida que algunos estados ya han comenzado a promulgar sus propias salvaguardas.
Los republicanos en la Cámara de Representantes de EE. UU. están presionando para impedir que los estados regulen la inteligencia artificial y los sistemas de toma de decisiones automatizadas durante una década. Específicamente, una disposición dentro de un proyecto de ley presupuestario propuesto, actualmente ante la Cámara, impediría efectivamente que los gobiernos estatales y locales promulguen o hagan cumplir leyes que regulen los modelos de IA, los sistemas o los sistemas de toma de decisiones automatizadas. Esta restricción estaría vigente a menos que el propósito de la ley sea facilitar el despliegue o la operación de estos sistemas, lo que representa un cambio significativo en el equilibrio de poder con respecto a la supervisión de la IA.
Esta disposición, agregada en el último minuto por los republicanos de la Cámara, se introdujo solo dos noches antes de que el proyecto de ley fuera marcado y posteriormente avanzado por el comité de energía y comercio de la Cámara. El amplio alcance de la definición de sistemas de IA del proyecto de ley es notable. Abarca una amplia gama de tecnologías, desde sistemas de reconocimiento facial hasta IA generativa, lo que podría afectar a numerosas aplicaciones. La ley propuesta también se aplicaría a los sistemas que utilizan algoritmos o IA para la toma de decisiones en áreas críticas como la contratación, la vivienda y la elegibilidad para beneficios públicos, lo que destaca las posibles consecuencias de gran alcance.
El momento de esta propuesta desreguladora es particularmente significativo, dada la creciente vigilancia de los sistemas de toma de decisiones automatizadas. Varios de estos sistemas han enfrentado recientemente críticas y desafíos legales. Por ejemplo, una demanda presentada por los fiscales generales estatales alega que el software de gestión de propiedades RealPage se confabuló con los propietarios para inflar los alquileres basándose en recomendaciones algorítmicas. Además, SafeRent resolvió una demanda colectiva con inquilinos negros e hispanos que afirmaron que se les negó la vivienda debido a puntuaciones opacas generadas por el sistema de la empresa. Estos casos subrayan el potencial de estos sistemas para perpetuar o exacerbar los sesgos y desigualdades sociales existentes.
En contraste con las restricciones federales propuestas, varios estados ya han comenzado a establecer sus propias salvaguardas para los sistemas de IA. Nueva York, por ejemplo, ha promulgado una ley que exige que los sistemas de contratación automatizados se sometan a evaluaciones de sesgos. California también ha aprobado múltiples leyes que regulan la toma de decisiones automatizada, incluido un requisito para que los proveedores de atención médica notifiquen a los pacientes cuando utilizan IA generativa en las comunicaciones. La aprobación del proyecto de ley de reconciliación podría hacer que estas leyes estatales existentes no sean ejecutables, deteniendo efectivamente los esfuerzos en curso para regular la IA a nivel estatal.
Lee Hepner, asesor legal principal del American Economic Liberties Project, ha expresado fuertes críticas al proyecto de ley. Argumenta que la legislación representa un “intento amplio e imprudente de proteger a algunas de las corporaciones más grandes y poderosas del mundo” de la rendición de cuentas. La declaración de Hepner sugiere que el proyecto de ley está diseñado para proteger los intereses de las grandes empresas tecnológicas y otras entidades poderosas que se beneficiarían del desarrollo y despliegue sin restricciones de las tecnologías de IA.
La legislación propuesta se alinea con una tendencia más amplia de desregulación en el espacio de la IA. En particular, el nuevo lenguaje se hace eco de las acciones tomadas durante la administración Trump, que tenían como objetivo eliminar los impedimentos percibidos para el desarrollo de la IA. Al asumir el cargo, Donald Trump revocó una orden ejecutiva de la administración Biden que había establecido salvaguardas de seguridad para el desarrollo y despliegue de la IA. Esta postura refleja la creencia de larga data dentro de Silicon Valley de que la regulación sofoca la innovación. La influencia de la industria es evidente en el apoyo que algunas figuras tecnológicas prominentes dieron a la campaña de Trump, lo que llevó a la administración a hacerse eco de sentimientos similares.
Hepner enfatiza además la importancia de la regulación a nivel estatal, afirmando que “los legisladores estatales de todo el país están interviniendo con soluciones reales a daños reales”. Considera que el proyecto de ley es un “ataque preventivo” diseñado para evitar que los estados promulguen más regulaciones. Esta perspectiva destaca el potencial del proyecto de ley para socavar los esfuerzos para abordar los daños del mundo real asociados con los sistemas de IA y la toma de decisiones automatizada, lo que podría dejar a los consumidores y las poblaciones vulnerables desprotegidos.
Los republicanos de la Cámara de Representantes buscan anular por una década las leyes estatales que regulan la IA y la toma de decisiones automatizada, argumentando la necesidad de fomentar la innovación. Esta medida, añadida tardíamente a un proyecto de ley presupuestaria, invalidaría las salvaguardas estatales existentes, como las evaluaciones de sesgo de Nueva York para sistemas de contratación, y potencialmente protegería a las empresas que enfrentan escrutinio por prácticas algorítmicas. Los críticos argumentan que prioriza los intereses corporativos sobre la rendición de cuentas pública y corre el riesgo de exacerbar los daños de los sistemas de IA sesgados.
Para profundizar, explore las demandas de RealPage y SafeRent para comprender las posibles consecuencias de la toma de decisiones algorítmicas sin control.
Leave a Reply