Nueva investigación de la Universidad de Duke sugiere que el uso de herramientas de IA como ChatGPT en el trabajo podría tener un inconveniente oculto: podría impactar negativamente en tu reputación profesional. Un estudio reciente publicado en las Actas de la Academia Nacional de Ciencias (PNAS) encontró que colegas y gerentes podrían percibir a los empleados que usan IA como menos competentes y motivados, independientemente de su demografía.
Según una investigación reciente de la Universidad de Duke, la integración de herramientas de IA en el lugar de trabajo presenta una paradoja compleja. Si bien la IA generativa puede mejorar potencialmente la productividad, su uso puede dañar inadvertidamente la reputación profesional de un individuo. Esta naturaleza de doble filo de la adopción de la IA forma el argumento central del estudio publicado en las *Proceedings of the National Academy of Sciences (PNAS)*.
El estudio, realizado por los investigadores Jessica A. Reif, Richard P. Larrick y Jack B. Soll de la Escuela de Negocios Fuqua de Duke, explora las consecuencias sociales del uso de herramientas de IA como ChatGPT, Claude y Gemini en el trabajo. Sus hallazgos indican que los empleados que utilizan estas herramientas se enfrentan a juicios negativos con respecto a su competencia y motivación, tanto de colegas como de gerentes. Esta “penalización de evaluación social” es una conclusión clave de la investigación.
El equipo de Duke empleó cuatro experimentos separados, con más de 4.400 participantes, para examinar a fondo las percepciones en torno a los usuarios de herramientas de IA. La investigación se centró tanto en las evaluaciones anticipadas como en las reales de las personas que aprovechan la asistencia de la IA. El patrón consistente reveló un sesgo contra aquellos que reciben ayuda de la IA, lo cual es un hallazgo significativo.
Uno de los aspectos más preocupantes de este estigma social, como destacan los investigadores, es su universalidad. Las percepciones negativas asociadas con el uso de la IA no se limitaron a grupos demográficos o profesionales específicos. Los autores afirmaron explícitamente en su artículo: “Encontramos que ninguno de estos atributos demográficos objetivo influye en el efecto de recibir ayuda de la IA en las percepciones de pereza, diligencia, competencia, independencia o seguridad en sí mismo”. Esto sugiere una estigmatización generalizada del uso de la IA en varios grupos.
El primer experimento, diseñado por el equipo de Duke, implicó que los participantes se imaginaran usando una herramienta de IA o una herramienta convencional de creación de paneles en el trabajo. Los resultados revelaron que aquellos en el grupo de IA anticipaban ser juzgados como más perezosos, menos competentes, menos diligentes y más fácilmente reemplazables en comparación con aquellos que usaban tecnología tradicional. Además, informaron una mayor renuencia a revelar su uso de IA tanto a colegas como a gerentes, lo que destaca el costo social percibido.
El segundo experimento proporcionó evidencia concreta para respaldar las anticipaciones iniciales. A los participantes se les presentaron descripciones de empleados y se les pidió que los evaluaran. Los resultados mostraron consistentemente que las personas que recibieron ayuda de la IA fueron calificadas como más perezosas, menos competentes, menos diligentes, menos independientes y menos seguras de sí mismas que aquellas que recibieron asistencia similar de fuentes no pertenecientes a la IA o ninguna ayuda en absoluto. Esto confirma la existencia de una penalización social tangible asociada con el uso de la IA en el lugar de trabajo.
La investigación subraya un dilema crítico para las personas que consideran la adopción de herramientas de IA. Si bien la IA puede, sin duda, aumentar la productividad, su uso también puede desencadenar consecuencias sociales negativas, lo que podría afectar el avance profesional y la posición profesional. Los hallazgos del estudio sugieren que, a medida que la IA se vuelve más prevalente en el lugar de trabajo, las personas deben considerar cuidadosamente las posibles compensaciones entre las ganancias de productividad y las percepciones sociales asociadas con el uso de estas poderosas herramientas.
Nueva investigación de la Universidad Duke revela una “penalización de evaluación social” por usar herramientas de IA como ChatGPT en el trabajo, percibiendo colegas y gerentes a los usuarios como menos competentes y motivados, sin importar la demografía. Aunque la IA aumenta la productividad, este costo social oculto requiere una cuidadosa consideración a medida que se expande la adopción de la IA. Es crucial explorar estrategias para mitigar este sesgo y asegurar una integración equitativa y positiva de la IA en el lugar de trabajo.
Leave a Reply