IA: Competencia sobre equidad

El Instituto de Seguridad de la Inteligencia Artificial de EE. UU. (AISI), creado bajo la administración Biden para abordar los riesgos potenciales de los modelos avanzados de IA, ha experimentado un cambio significativo en su enfoque bajo la administración Trump. Las nuevas instrucciones para los científicos que colaboran con el AISI ahora priorizan “reducir el sesgo ideológico” y “la competitividad estadounidense”, eliminando referencias a áreas cruciales como la seguridad de la IA, la equidad y el seguimiento de la desinformación.

El Instituto Nacional de Estándares y Tecnología (NIST) ha modificado significativamente las directrices para los científicos que colaboran con el Instituto de Seguridad de la Inteligencia Artificial de EE. UU. (AISI), lo que indica un cambio de prioridades bajo la administración Trump. Estos cambios, descritos en un acuerdo actualizado de investigación y desarrollo cooperativo, eliminan conceptos previamente enfatizados como “seguridad de la IA”, “IA responsable” y “equidad de la IA”, reemplazándolos con un enfoque en “reducir el sesgo ideológico, para permitir el florecimiento humano y la competitividad económica”. Esto representa una marcada desviación de los objetivos iniciales del instituto bajo la administración Biden.

Anteriormente, el acuerdo del consorcio del AISI alentaba activamente a los investigadores a abordar el comportamiento discriminatorio de los modelos relacionados con factores como el género, la raza, la edad y la desigualdad económica. Este énfasis se basaba en la comprensión de que los algoritmos sesgados pueden dañar directamente a los usuarios finales, afectando desproporcionadamente a los grupos minoritarios y económicamente desfavorecidos. La eliminación de este enfoque, junto con la eliminación de las directivas para desarrollar herramientas para la autenticación de contenido y el etiquetado de contenido sintético (abordando la desinformación y los deepfakes), sugiere un interés disminuido en estas áreas críticas de seguridad de la IA y el impacto social. Además, la adición de un énfasis en la posición global de EE. UU. en la IA, con un grupo de trabajo encargado de desarrollar herramientas de prueba para impulsar la posición de la nación, destaca un cambio estratégico hacia la priorización de la ventaja competitiva.

Las motivaciones detrás de estos cambios se atribuyen a la influencia de Elon Musk y sus esfuerzos para racionalizar el gasto gubernamental. Musk, que actualmente lidera una iniciativa controvertida para reducir la burocracia gubernamental en nombre del presidente Trump, ha criticado públicamente los modelos de IA desarrollados por OpenAI y Google. Un meme publicado en X calificó los modelos de OpenAI y Google como “racistas” y “woke”, reflejando sus preocupaciones. Esta crítica, junto con un incidente en el que el modelo de Google debatió sobre la permisibilidad de tergénder a alguien para prevenir un apocalipsis nuclear, subraya su escepticismo y su deseo de remodelar la dirección del desarrollo de la IA. Un investigador que asesora a xAI, la empresa de IA de Musk, recientemente desarrolló una técnica para potencialmente alterar las inclinaciones políticas de los modelos de lenguaje grandes, lo que ilustra aún más su deseo de influir en la alineación ideológica de los sistemas de IA.

El cambio de enfoque no es meramente un desacuerdo filosófico; tiene implicaciones prácticas para el desarrollo y la implementación de la IA. Un investigador que trabaja con el AISI, hablando de forma anónima por temor a represalias, advierte que ignorar cuestiones como la equidad y la seguridad podría conducir a algoritmos no controlados que discriminen por ingresos u otras características demográficas. Predice un futuro en el que los sistemas de IA sean “inequos, discriminatorios, inseguros y desplegados de manera irresponsable”, afectando particularmente a aquellos que no son “técnicos multimillonarios”. Otro investigador, con experiencia previa en el AISI, cuestiona el mismo significado de “florecimiento humano” bajo este nuevo marco.

Los cambios también están vinculados a una tendencia más amplia de influencia política dentro de la comunidad de investigación en IA. El mismo investigador anónimo alega que muchos investigadores en IA se han alineado cada vez más con los republicanos y sus patrocinadores corporativos en un intento de mantener relevancia y acceso a las discusiones sobre la seguridad de la IA. Este “acercamiento” se recibe con escepticismo, con el investigador comparando a estos patrocinadores con “leopardos devoradores de caras que solo se preocupan por el poder”. Esto destaca una preocupación de que la búsqueda de influencia pueda comprometer la integridad de la investigación sobre la seguridad de la IA.

Las acciones de la administración Trump se contextualizan aún más por los esfuerzos más amplios de su “Departamento de Eficiencia Gubernamental” (DOGE). Desde enero, DOGE ha estado reestructurando agresivamente el gobierno de EE. UU., despidiendo empleados públicos, suspendiendo gastos y creando un ambiente percibido como hostil para aquellos que podrían oponerse a los objetivos de la administración. Esto ha incluido atacar a NIST, la organización matriz del AISI, lo que ha resultado en numerosos despidos de empleados. Además, algunos departamentos gubernamentales, incluido el Departamento de Educación, han archivado y eliminado documentos que hacen referencia a iniciativas de Diversidad, Equidad e Inclusión (DEI).

El cambio estratégico en la política de IA se refleja en el nombramiento de David Sacks, un asociado de larga data de Elon Musk, como el czar de la Casa Blanca para la IA y las criptomonedas. Si bien el involucramiento específico de Sacks u otros funcionarios de la Casa Blanca en la definición de la nueva agenda de investigación sigue sin estar claro, Stella Biderman, directora ejecutiva de Eleuther, una organización sin fines de lucro que trabaja con el AISI, cree que los cambios son “bastante directamente del la Casa Blanca”. Ella enfatiza que la administración ha dejado claro sus prioridades y que la reescritura del plan era necesaria para que el AISI pudiera continuar existiendo.

La creación del Instituto de Seguridad de la Inteligencia Artificial en sí surgió de una orden ejecutiva emitida por la administración Biden en octubre de 2023, un período marcado por una creciente preocupación por los rápidos avances en la IA. Bajo la administración Biden, el instituto se encargó de abordar una variedad de problemas potenciales, incluido el uso de la IA para ciberataques o el desarrollo de armas químicas o biológicas. Un objetivo clave era determinar si los modelos de IA podrían volverse engañosos y peligrosos a medida que evolucionan. Sin embargo, la posterior orden ejecutiva de la administración Trump, si bien mantenía el Instituto de Seguridad de la Inteligencia Artificial, revocó la orden original de Biden y articuló un nuevo enfoque en el desarrollo de sistemas de IA “libres de sesgos ideológicos o agendas sociales diseñadas”.

Esta nueva dirección se enfatizó aún más por las declaraciones del vicepresidente JD Vance en la Cumbre de Acción de la IA en París en febrero. Vance declaró que el gobierno de EE. UU. priorizaría la competitividad estadounidense en la carrera para desarrollar y beneficiarse de la IA, descartando las preocupaciones sobre la seguridad como mero “llanto y lamento”. Notablemente, la delegación estadounidense en el evento no incluyó a nadie del Instituto de Seguridad de la IA, lo que subraya el compromiso de la administración con la priorización de la ventaja competitiva sobre las consideraciones de seguridad.

El impacto potencial de estos cambios se extiende más allá de las preocupaciones inmediatas de equidad y seguridad. La investigación demuestra consistentemente que el sesgo político puede permear los modelos de IA, afectando a los usuarios en todo el espectro ideológico. Un estudio de 2021 del algoritmo de recomendación de Twitter, por ejemplo, reveló que los usuarios eran más propensos a ver perspectivas de derecha en la plataforma. El cambio actual hacia la priorización de la competitividad estadounidense y la reducción del sesgo ideológico, sin un énfasis correspondiente en la equidad y la seguridad, genera preocupaciones de que estos sesgos podrían exacerbarse, lo que podría conducir a consecuencias potencialmente dañinas para las personas y la sociedad en su conjunto.

La administración Trump modificó significativamente el Instituto de Seguridad de la IA, priorizando la competitividad estadounidense y la reducción de “sesgos ideológicos” en lugar de la seguridad, la equidad y la desinformación. Este cambio, impulsado por figuras como Elon Musk y David Sacks, ha generado preocupación entre investigadores de la IA, quienes temen que conduzca a sesgos incontrolados y sistemas de IA potencialmente dañinos, poniendo en riesgo el bienestar de los usuarios. A medida que la influencia de la IA crece, es crucial mantener una vigilancia constante y priorizar los valores humanos para garantizar un desarrollo y despliegue éticos.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *