El Instituto Nacional de Estándares y Tecnología (NIST), en colaboración con el Instituto de Seguridad de Inteligencia Artificial (AISI) de EE. UU., ha revisado sus directrices para los científicos asociados, cambiando significativamente el enfoque de la seguridad, la equidad y el desarrollo responsable de la IA. Estos cambios, supuestamente impulsados por la administración Trump, priorizan la reducción del sesgo ideológico y el impulso de la competitividad estadounidense en el panorama global de la IA, lo que genera preocupación entre algunos investigadores sobre las posibles consecuencias negativas para los usuarios de la IA.
El Instituto Nacional de Estándares y Tecnología (NIST), la organización matriz del Instituto de Seguridad de Inteligencia Artificial de EE. UU. (AISI), ha alterado significativamente el enfoque de sus acuerdos de investigación colaborativa con científicos asociados. Las instrucciones recientemente emitidas para los miembros del consorcio AISI, distribuidas a principios de marzo, han eliminado las menciones explícitas de “seguridad de la IA”, “IA responsable” y “equidad de la IA” de las habilidades esperadas de los investigadores. Esto marca un cambio notable con respecto a los acuerdos anteriores, que fomentaban el trabajo técnico destinado a identificar y rectificar el comportamiento discriminatorio de los modelos basado en factores como el género, la raza, la edad o la desigualdad de riqueza. El énfasis anterior en abordar tales sesgos se basaba en su potencial para impactar directamente a los usuarios finales y perjudicar desproporcionadamente a los grupos minoritarios y económicamente desfavorecidos.
Además, el acuerdo actualizado señala un menor interés en combatir la desinformación y los deepfakes. Ha eliminado el requisito de que los investigadores desarrollen herramientas “para autenticar el contenido y rastrear su procedencia” y “etiquetar el contenido sintético”. Al mismo tiempo, las nuevas instrucciones introducen una solicitud para priorizar la “reducción del sesgo ideológico, para permitir el florecimiento humano y la competitividad económica”. Este nuevo enfoque se ve reforzado por un énfasis adicional en un enfoque de “Estados Unidos primero”, con un grupo de trabajo específicamente encargado de desarrollar herramientas de prueba “para expandir la posición global de Estados Unidos en IA”.
Estos cambios han provocado fuertes críticas por parte de los investigadores que trabajan con el Instituto de Seguridad de IA. Un investigador, que habló de forma anónima por temor a represalias, afirmó que la eliminación de la seguridad, la equidad, la desinformación y la responsabilidad como aspectos valiosos de la IA “habla por sí sola”. Este investigador cree que descuidar estos problemas podría afectar negativamente a los usuarios habituales al permitir potencialmente que algoritmos que discriminan por ingresos u otros datos demográficos operen sin control. Afirma que, “A menos que seas un multimillonario de la tecnología, esto te llevará a un futuro peor para ti y para las personas que te importan. Espera que la IA sea injusta, discriminatoria, insegura y se implemente de forma irresponsable”. Otro investigador que ha colaborado anteriormente con el AISI expresó su desconcierto, preguntando: “¿Qué significa siquiera que los humanos florezcan?”.
El cambio de prioridades parece alinearse con las críticas a los modelos de IA expresadas por figuras como Elon Musk. Musk, que actualmente está involucrado en un esfuerzo por reducir el gasto y la burocracia gubernamental en nombre del presidente Trump, ha criticado públicamente los modelos desarrollados por OpenAI y Google, calificándolos de “racistas” y “woke”. Con frecuencia ha citado un improbable escenario hipotético en el que un modelo de Google debatía la ética de usar el pronombre incorrecto de alguien para evitar un apocalipsis nuclear como evidencia de un sesgo ideológico percibido. Vale la pena señalar que Musk dirige xAI, una empresa de IA que compite directamente con OpenAI y Google, y un investigador que asesora a xAI ha desarrollado, según se informa, una técnica para alterar potencialmente las tendencias políticas de los modelos de lenguaje grandes.
Un creciente cuerpo de investigación respalda la noción de que el sesgo político puede existir en los modelos de IA e impactar a los usuarios de todo el espectro político. Por ejemplo, un estudio de 2021 del algoritmo de recomendación de Twitter reveló que era más probable que a los usuarios se les mostraran perspectivas de derecha en la plataforma. Esta evidencia existente de sesgo en los modelos de IA aumenta la preocupación por las posibles consecuencias de restar importancia a la equidad y centrarse en reducir el “sesgo ideológico” sin definiciones ni salvaguardas claras.
Los cambios en el NIST y el AISI se están produciendo en un contexto más amplio de esfuerzos liderados por el llamado Departamento de Eficiencia Gubernamental (DOGE) de Musk. Desde enero, DOGE ha estado trabajando activamente para reducir el tamaño y el alcance del gobierno de EE. UU., lo que, según se informa, ha llevado al despido de funcionarios públicos, la suspensión del gasto y la creación de un entorno percibido como hostil para aquellos que podrían oponerse a los objetivos de la administración Trump. Algunos departamentos gubernamentales, como el Departamento de Educación, han archivado y eliminado documentos que mencionan la Diversidad, la Equidad y la Inclusión (DEI). DOGE también ha apuntado recientemente al NIST, la organización matriz de AISI, lo que ha resultado en el despido de docenas de empleados, según se informa.
Stella Biderman, directora ejecutiva de Eleuther, una organización sin fines de lucro que trabaja con el Instituto de Seguridad de IA, sugiere que estos cambios probablemente se originan en la Casa Blanca. Ella afirma: “Esos cambios provienen casi directamente de la Casa Blanca”. Biderman cree que la administración ha dejado claras sus prioridades y que “reescribir el plan era necesario para seguir existiendo”. Esto indica que el cambio de enfoque puede ser una medida estratégica para garantizar la continuación de las operaciones del AISI bajo las directivas de la administración actual.
El Instituto de Seguridad de IA fue establecido inicialmente por una orden ejecutiva emitida por la administración Biden en octubre de 2023, en un momento de creciente preocupación con respecto a los rápidos avances en la IA. Bajo la administración Biden, el instituto tenía la tarea de abordar una amplia gama de riesgos potenciales asociados con los modelos de IA potentes, incluido su posible uso en ciberataques o el desarrollo de armas químicas o biológicas. Una parte clave de su mandato original era evaluar si los modelos de IA podrían volverse engañosos y peligrosos a medida que evolucionaban.
Sin embargo, una orden ejecutiva emitida por la administración Trump en enero revocó la orden de Biden, manteniendo el Instituto de Seguridad de IA. Esta nueva orden ejecutiva establece explícitamente: “Para mantener este liderazgo, debemos desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas”. Este lenguaje refleja directamente el nuevo énfasis que se observa en las instrucciones actualizadas del NIST y destaca el enfoque de la administración en la neutralidad ideológica percibida en el desarrollo de la IA.
Reforzando aún más este cambio de prioridades, el vicepresidente JD Vance declaró en la Cumbre de Acción de IA en París en febrero que el gobierno de EE. UU. priorizaría la competitividad estadounidense en el desarrollo y la utilización de la IA. Vance dijo a los asistentes que “El futuro de la IA no se ganará con lamentos sobre la seguridad”. Cabe destacar que la delegación estadounidense a este evento internacional no incluyó a nadie del Instituto de Seguridad de IA, lo que indica potencialmente un papel disminuido para el instituto en las discusiones internacionales sobre la seguridad de la IA.
El investigador que expresó su preocupación por la posibilidad de una mayor injusticia e inseguridad en la IA también alega que algunos investigadores de IA han buscado el favor de los republicanos y sus patrocinadores financieros en un intento de mantener la influencia en las discusiones sobre la seguridad de la IA. Este investigador expresa la esperanza de que estos investigadores eventualmente reconozcan que “estas personas y sus patrocinadores corporativos son leopardos que se comen la cara y solo se preocupan por el poder”, lo que sugiere una relación transaccional percibida en la que las preocupaciones de seguridad se ven comprometidas por el acceso político. La Casa Blanca no respondió de inmediato a una solicitud de comentarios de WIRED con respecto a estos acontecimientos.
La administración Trump ha cambiado significativamente el enfoque del Instituto de Seguridad de la IA (AISI), abandonando la seguridad de la IA, la equidad y las preocupaciones sobre la desinformación para priorizar la “reducción del sesgo ideológico” y la competitividad estadounidense en IA. Este cambio, impulsado por figuras como Elon Musk y David Sacks, implica la eliminación de objetivos clave relacionados con la seguridad y podría poner en peligro las salvaguardas contra algoritmos de IA discriminatorios, lo que genera preocupaciones sobre un futuro de IA menos equitativo y potencialmente más peligroso.
Leave a Reply