La IA y la DEI: De los Sesgos a la “IA Woke”

Las empresas tecnológicas enfrentan un cambio en la forma en que se considera el desarrollo de su inteligencia artificial (IA), ya que los esfuerzos para promover la diversidad, la equidad y la inclusión (DEI) en los productos de IA ahora son examinados como “IA woke” por la Casa Blanca y el Congreso liderado por los republicanos. Este cambio marca una inversión de las preocupaciones anteriores sobre la discriminación algorítmica perjudicial y ha provocado investigaciones y cambios de políticas que podrían impactar el desarrollo y la financiación futuros de la IA.

Las empresas tecnológicas, tras retroceder en sus programas de diversidad, equidad e inclusión (DEI) en el lugar de trabajo, ahora se enfrentan a un posible segundo ajuste de cuentas en lo que respecta a los esfuerzos de DEI en sus productos de IA. Este cambio es impulsado por un cambio en las prioridades políticas, con la Casa Blanca y un Congreso liderado por los republicanos que ven la “IA woke” como un problema que necesita corrección, reemplazando la discriminación algorítmica dañina como la principal preocupación.

El Comité Judicial de la Cámara de Representantes, bajo liderazgo republicano, está investigando a las empresas de IA, incluyendo Amazon, Google, Meta, Microsoft y OpenAI. Se enviaron citaciones a estas empresas el mes pasado, dirigidas a esfuerzos pasados para “promover la equidad” en el desarrollo de la IA y frenar la producción de “resultados dañinos y sesgados”. Esto indica un desafío directo al enfoque anterior en la mitigación de sesgos en los sistemas de IA.

Además, la rama de establecimiento de estándares del Departamento de Comercio de EE. UU. ha eliminado las menciones de imparcialidad, seguridad y “IA responsable” de su llamado a la colaboración con investigadores externos. En cambio, el departamento ahora está instruyendo a los científicos a priorizar la “reducción del sesgo ideológico” para “permitir el florecimiento humano y la competitividad económica”, como se reveló en un documento obtenido por The Associated Press. Esto representa un cambio significativo en el enfoque del gobierno hacia el desarrollo de la IA, priorizando la neutralidad ideológica sobre la atención de posibles sesgos.

Los trabajadores tecnológicos están acostumbrados a los cambios en las prioridades impulsadas por Washington, pero este último cambio ha generado preocupación entre los expertos. El sociólogo de la Universidad de Harvard, Ellis Monk, quien colaboró con Google para mejorar la inclusión de sus productos de IA, se encuentra entre los preocupados.

El trabajo de Monk con Google implicó el desarrollo de una escala de color para mejorar la forma en que las herramientas de imagen de IA retratan diversos tonos de piel. Esta fue una respuesta directa a los sesgos históricos encontrados en las tecnologías de cámaras anteriores que retrataban a las personas negras y de color de manera poco favorecedora. La Escala de Tono de Piel de Monk reemplazó un estándar de décadas de antigüedad diseñado originalmente para médicos que trataban a pacientes de dermatología blancos.

Monk reconoce la respuesta positiva de los consumidores a estos cambios. Sin embargo, ahora cuestiona el futuro de tales iniciativas, temiendo un efecto disuasorio en futuros proyectos y financiación. Si bien cree que la Escala de Tono de Piel de Monk es segura, le preocupa la reducción de la financiación para proyectos similares debido al cambiante clima político y la presión para lanzar productos rápidamente al mercado.

La influencia de los cambios políticos en el desarrollo comercial de la IA es indirecta, aunque significativa. El representante republicano Jim Jordan, presidente del comité judicial, está investigando a las empresas de IA, buscando determinar si la administración Biden las “coaccionó o coludió” para censurar el discurso legal. Esto sugiere un enfoque en la posible interferencia política en el desarrollo y despliegue de la IA.

Michael Kratsios, director de la Oficina de Política Científica y Tecnológica de la Casa Blanca, ha criticado las políticas de IA de Biden, afirmando que están “promoviendo divisiones sociales y la redistribución en nombre de la equidad”. Este sentimiento es secundado por la administración Trump, que ha citado una línea de una estrategia de investigación de IA de la era Biden como ejemplo de este problema percibido.

Incluso antes de que Biden asumiera el cargo, la investigación destacó los daños del sesgo de la IA. Los estudios mostraron que la tecnología de automóviles autónomos tenía dificultades para detectar peatones de piel más oscura, y los generadores de texto a imagen de IA producían predominantemente imágenes de hombres blancos como cirujanos. El software de coincidencia facial identificó erróneamente rostros asiáticos, y la policía arrestó injustamente a hombres negros basándose en coincidencias falsas de reconocimiento facial. La propia aplicación de fotos de Google una vez categorizó una imagen de personas negras como “gorilas”.

Los científicos gubernamentales de la primera administración Trump concluyeron en 2019 que la tecnología de reconocimiento facial funcionaba de manera desigual según la raza, el género o la edad. Esto subraya la conciencia preexistente del sesgo de la IA en todas las administraciones.

La elección de Biden impulsó a algunas empresas tecnológicas a acelerar su enfoque en la imparcialidad de la IA. La llegada de ChatGPT de OpenAI en 2022 aceleró aún más esta tendencia, lo que llevó a un auge comercial en nuevas aplicaciones de IA. Esto creó presión sobre empresas como Google para que se pusieran al día y abordaran los sesgos existentes.

El chatbot Gemini de Google se convirtió en un símbolo de la “IA woke” debido a un lanzamiento defectuoso. Las herramientas de IA, entrenadas con vastos datos visuales, son propensas a perpetuar estereotipos. Cuando se les pidió que representaran a personas en diversas profesiones, Gemini favoreció rostros de piel más clara y hombres. Cuando se eligieron mujeres, a menudo eran más jóvenes.

Google intentó mitigar estos sesgos antes del lanzamiento de Gemini. Sin embargo, la empresa compensó en exceso, lo que resultó en representaciones históricas inexactas. Por ejemplo, una solicitud de padres fundadores estadounidenses generó imágenes de hombres con atuendo del siglo XVIII que parecían ser negros, asiáticos y nativos americanos. Google se disculpó y eliminó temporalmente la función, pero el incidente se convirtió en un punto de encuentro para la derecha política.

El vicepresidente JD Vance criticó el avance de “agendas sociales francamente ahistóricas a través de la IA” en una cumbre de IA en París, citando el generador de imágenes de Google como ejemplo. Declaró que la administración Trump se aseguraría de que los sistemas de IA desarrollados en Estados Unidos estén libres de sesgos ideológicos.

Alondra Nelson, ex asesora científica de Biden, reconoce que el nuevo enfoque de la administración Trump en el “sesgo ideológico” de la IA reconoce años de trabajo para abordar el sesgo algorítmico. Argumenta que esto es fundamentalmente un reconocimiento del problema del sesgo algorítmico, que ha sido una preocupación de larga data.

Sin embargo, Nelson expresa pesimismo sobre la colaboración en medio de la denigración de las iniciativas de IA equitativas. Cree que los dos problemas, la discriminación algorítmica y el sesgo ideológico, se verán lamentablemente como cuestiones separadas en el clima político actual, lo que hace que la colaboración sea poco probable.

Las empresas tecnológicas están reorientando el desarrollo de la IA, pasando de abordar el sesgo algorítmico y promover la equidad a preocuparse por el “sesgo ideológico” bajo iniciativas lideradas por los republicanos. Aunque esfuerzos anteriores para mitigar el sesgo en la IA, como la Escala de Tono de Piel Monk de Google, fueron efectivos, la financiación y las iniciativas futuras para una IA inclusiva podrían verse comprometidas por el cambiante panorama político, obstaculizando el progreso hacia una tecnología que beneficie a todos. Es crucial reconocer que abordar el “sesgo ideológico” a menudo refleja la necesidad de larga data de abordar el sesgo algorítmico, y descartar uno como separado corre el riesgo de pasar por alto los problemas fundamentales que impactan la imparcialidad y la equidad en la IA.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *