Nueva investigación de la Universidad de Duke sugiere que, si bien las herramientas de IA como ChatGPT pueden aumentar la productividad, también podrían impactar negativamente en su reputación profesional. Un estudio reciente publicado en las Actas de la Academia Nacional de Ciencias (PNAS) encontró que los colegas y gerentes a menudo perciben a los empleados que usan IA como menos competentes y motivados, revelando una potencial “penalización de evaluación social” por la adopción de la IA.
Según una investigación reciente de la Universidad de Duke, la integración de la IA en el lugar de trabajo presenta una paradoja compleja: si bien puede mejorar la productividad, puede infligir simultáneamente daños a la reputación profesional de un individuo. Esta naturaleza de doble filo de la adopción de la IA es el tema central de un estudio publicado en *Proceedings of the National Academy of Sciences (PNAS)*.
Específicamente, el estudio indica que los empleados que utilizan herramientas de IA como ChatGPT, Claude y Gemini en el trabajo probablemente enfrentarán juicios negativos con respecto a su competencia y motivación, tanto de colegas como de gerentes. Este hallazgo subraya la existencia de una “penalización de evaluación social” asociada con el uso de la IA, un concepto que constituye el eje central de la investigación del equipo de Duke.
Los investigadores, Jessica A. Reif, Richard P. Larrick y Jack B. Soll de la Escuela de Negocios Fuqua de Duke, destacan este dilema, afirmando: “Aunque la IA puede mejorar la productividad, su uso conlleva costos sociales”. Esta afirmación resume el conflicto central identificado por el estudio: el potencial de mayor eficiencia frente al riesgo de daños a la reputación.
Las conclusiones del equipo de Duke se basan en cuatro experimentos distintos que involucran a más de 4.400 participantes. Estos experimentos fueron diseñados para examinar tanto las evaluaciones anticipadas como las reales de los usuarios de herramientas de IA. El patrón consistente en estos experimentos revela un claro sesgo contra las personas que utilizan la asistencia de la IA.
Uno de los hallazgos más significativos de la investigación es la universalidad de esta estigmatización social. La percepción negativa del uso de la IA trasciende las fronteras demográficas. Como señalaron los autores en su artículo, “Descubrimos que ninguno de estos atributos demográficos objetivo influye en el efecto de recibir ayuda de IA en las percepciones de pereza, diligencia, competencia, independencia o seguridad en sí mismo”. Esto sugiere que los juicios negativos no se limitan a grupos específicos, sino que representan un fenómeno social general.
El primer experimento, por ejemplo, pidió a los participantes que imaginaran usar una herramienta de IA o una herramienta convencional de creación de paneles en el trabajo. Los resultados revelaron que los del grupo de IA anticipaban ser juzgados como más perezosos, menos competentes, menos diligentes y más fácilmente reemplazables en comparación con los que usaban tecnología tradicional. Además, expresaron una menor disposición a revelar su uso de la IA a colegas y gerentes, lo que indica un riesgo social percibido asociado con la transparencia.
El segundo experimento proporcionó validación empírica para estos temores. A los participantes se les presentaron descripciones de empleados y se les pidió que los evaluaran. Las evaluaciones mostraron consistentemente que las personas que recibieron asistencia de IA fueron calificadas como más perezosas, menos competentes, menos diligentes, menos independientes y menos seguras de sí mismas que aquellas que recibieron ayuda similar de fuentes no IA o ninguna asistencia. Este experimento proporciona evidencia concreta de la penalización social que los investigadores identificaron.
La investigación destaca el costo social oculto de la adopción de la IA, un factor que las personas y las organizaciones deben considerar cuidadosamente. Si bien las herramientas de IA ofrecen beneficios innegables en términos de productividad y eficiencia, su uso puede conducir inadvertidamente a percepciones negativas y potencialmente obstaculizar el avance profesional. Esto subraya la importancia de comprender y navegar la dinámica social que rodea la implementación de la IA en el lugar de trabajo.
Nueva investigación de la Universidad Duke revela una “penalización por evaluación social” al usar herramientas de IA como ChatGPT en el trabajo, con colegas y gerentes percibiendo a los usuarios como menos competentes y motivados, independientemente de factores demográficos. Aunque la IA aumenta la productividad, este costo social oculto requiere una cuidadosa consideración a medida que se expande la adopción de la IA. Es crucial investigar más a fondo para mitigar estos sesgos y asegurar una integración equitativa de la IA en el lugar de trabajo.
Leave a Reply