Después de años de intentos de las empresas tecnológicas por mitigar el sesgo en la inteligencia artificial, se está produciendo un cambio, ya que la administración Trump señala un movimiento para poner fin a lo que llama los esfuerzos de “IA woke”. Este cambio implica investigaciones sobre las iniciativas de Diversidad, Equidad e Inclusión (DEI) en IA de las empresas tecnológicas y una reorientación de las prioridades de investigación, alejándose de la equidad y la seguridad hacia la reducción del “sesgo ideológico” y la promoción de la competitividad económica.
La industria tecnológica, tras centrarse inicialmente en reducir el sesgo generalizado de la IA, ahora se enfrenta a una posible reversión de sus esfuerzos debido a los cambios políticos. El enfoque en la diversidad, la equidad y la inclusión (DEI) en la IA está bajo escrutinio, y el término “IA woke” se utiliza para criticar estas iniciativas.
Específicamente, el Comité Judicial de la Cámara de Representantes, liderado por los republicanos, ha emitido citaciones a las principales empresas tecnológicas como Amazon, Google y Microsoft, investigando su trabajo de DEI en productos de IA. Además, el Departamento de Comercio de EE. UU. ha eliminado las menciones de la equidad de la IA y la IA responsable de sus directrices, enfatizando en cambio la reducción del “sesgo ideológico” para promover el “florecimiento humano y la competitividad económica”. Este cambio señala una posible despriorización de los esfuerzos para abordar el sesgo algorítmico.
El compromiso inicial de la industria tecnológica con el sesgo de la IA surgió del reconocimiento del potencial de los sistemas de IA para perpetuar las desigualdades sociales existentes. Por ejemplo, se descubrió que la visión por computadora, una rama de la IA, se hacía eco de los sesgos históricos presentes en las tecnologías de cámara anteriores, a menudo retratando a las personas negras y de color de manera poco halagüeña.
El sociólogo de la Universidad de Harvard, Ellis Monk, que colaboró con Google para mejorar sus herramientas de imagen de IA, destaca este problema. Desarrolló una escala de color que mejoró la forma en que las herramientas de imagen de IA retratan la diversidad de los tonos de piel humana, reemplazando un estándar de décadas de antigüedad diseñado para pacientes de dermatología blancos. Este cambio resultó en una respuesta positiva del consumidor. Sin embargo, Monk ahora teme que el clima político actual pueda enfriar futuras iniciativas y la financiación de proyectos similares.
El rechazo político contra la DEI en la IA está impulsado por preocupaciones sobre el “sesgo ideológico” y el potencial de que la IA se utilice para promover agendas sociales específicas. El representante republicano Jim Jordan, presidente del Comité Judicial de la Cámara de Representantes, está investigando si la administración Biden “coaccionó o coludió con” las empresas tecnológicas para censurar el discurso legal.
Michael Kratsios, ex director de la Oficina de Política Científica y Tecnológica de la Casa Blanca, ha criticado las políticas de IA de Biden, argumentando que promueven las divisiones sociales y la redistribución en nombre de la equidad. Estas críticas reflejan un rechazo conservador más amplio contra las iniciativas de DEI.
Los daños del sesgo de la IA se han documentado a través de varios estudios y ejemplos del mundo real. La tecnología de automóviles autónomos ha tenido dificultades para detectar a los peatones de piel más oscura, lo que aumenta su riesgo de accidentes. Se ha demostrado que los generadores de texto a imagen de IA producen de manera desproporcionada imágenes de hombres blancos cuando se les pide que representen a profesionales como cirujanos. El software de reconocimiento facial ha identificado erróneamente rostros asiáticos, y la policía ha arrestado injustamente a hombres negros basándose en coincidencias falsas de reconocimiento facial. Incluso la propia aplicación de fotos de Google una vez categorizó una foto de personas negras como “gorilas”.
Estos ejemplos resaltan el potencial de la IA para perpetuar y amplificar los sesgos existentes, lo que lleva a resultados discriminatorios. La administración Biden reconoció estos problemas y animó a las empresas tecnológicas a abordarlos.
La llegada de ChatGPT de OpenAI en 2022 impulsó un auge comercial en nuevas aplicaciones de IA, lo que presionó a empresas como Google para que se pusieran al día. Sin embargo, este rápido desarrollo también condujo a algunos errores. El chatbot Gemini AI de Google, por ejemplo, produjo imágenes que perpetuaban estereotipos, favoreciendo los rostros de piel más clara y los hombres. Cuando se le pidió que representara a personas en varias profesiones, era más probable que favoreciera los rostros de piel más clara y los hombres y, cuando se elegía a mujeres, mujeres más jóvenes, según la propia investigación pública de la empresa.
Google intentó implementar medidas de seguridad para reducir estas disparidades, pero la sobrecompensación resultó en representaciones históricas inexactas, como representar a los padres fundadores estadounidenses como negros, asiáticos y nativos americanos. Este incidente se convirtió en un grito de guerra para los conservadores, que criticaron la percibida “IA woke”.
El vicepresidente JD Vance, hablando en una cumbre de IA, criticó el avance de “agendas sociales francamente ahistóricas a través de la IA”, citando el incidente de Google Gemini. Afirmó que la administración Trump se aseguraría de que los sistemas de IA desarrollados en Estados Unidos estén libres de sesgos ideológicos y no restrinjan la libertad de expresión.
La ex asesora científica de Biden, Alondra Nelson, reconoce que el enfoque actual en el “sesgo ideológico” es, en cierto modo, un reconocimiento del problema del sesgo algorítmico. Sin embargo, cree que el clima político hace improbable la colaboración en estos temas. Teme que los diferentes marcos del problema, la discriminación algorítmica frente al sesgo ideológico, impidan un enfoque unificado para abordar los desafíos del sesgo de la IA.
Los esfuerzos de la industria tecnológica para mitigar el sesgo en la IA, inicialmente impulsados por preocupaciones sobre resultados discriminatorios, ahora enfrentan una reacción política. La administración Trump busca desviar la atención de la “IA woke” y las iniciativas de equidad para reducir el “sesgo ideológico”, lo que podría enfriar la financiación y la investigación futuras destinadas a garantizar que la IA beneficie a todos los usuarios. Si bien este cambio enmarca el sesgo algorítmico como una cuestión de agenda ideológica, los expertos advierten que corre el riesgo de pasar por alto los daños reales de la IA sesgada que impactan áreas como la atención médica, la vivienda e incluso la seguridad pública, lo que subraya la necesidad urgente de un diálogo continuo y matizado y un desarrollo responsable de la IA, independientemente del clima político predominante.
Leave a Reply