¿IA redactó el examen de abogacía? El experimento de California fracasa

La inteligencia artificial está transformando rápidamente diversas industrias, y ahora está impactando la educación legal. Recientemente, el Colegio de Abogados del Estado de California reveló que se utilizó IA para desarrollar una parte de las preguntas del examen de abogacía del estado, una medida que ha generado una controversia significativa entre estudiantes y educadores.

El Colegio de Abogados del Estado de California ha generado controversia al incorporar inteligencia artificial en la creación de las preguntas de su examen de abogacía. Específicamente, el colegio reveló que se utilizó IA para desarrollar una parte de las preguntas del examen, una medida que ha encendido un debate significativo dentro de la comunidad legal. Esta revelación fue reportada por el LA Times, destacando el uso de IA por parte del Colegio de Abogados para generar preguntas, una práctica que ha suscitado preocupaciones sobre la integridad y la equidad del examen.

Las preguntas generadas por IA fueron creadas por ACS Ventures, un psicometrista independiente contratado por el Colegio de Abogados del Estado. Según la declaración del Colegio de Abogados, estas preguntas fueron “desarrolladas con la asistencia de IA y posteriormente revisadas por paneles de validación de contenido y un experto en la materia antes del examen”. El uso de la IA, sin embargo, ha sido recibido con fuertes críticas por parte de académicos y educadores legales.

La extensión de la participación de la IA es notable. El LA Times informó que 23 de las 171 preguntas de opción múltiple fueron creadas por ACS Ventures. Si bien la mayoría de las preguntas de opción múltiple fueron desarrolladas por Kaplan, y un “pequeño subconjunto” se tomaron del Examen de Estudiantes de Derecho de Primer Año, la presencia de preguntas generadas por IA se ha convertido en un punto focal de crítica. Esto es particularmente significativo dado el contexto de problemas anteriores con el examen, incluyendo fallas técnicas y errores en las preguntas sobre los que los examinados se habían quejado previamente.

La reacción de los profesionales del derecho ha sido abrumadoramente negativa. Mary Basick, decana asistente de habilidades académicas en la Facultad de Derecho de la Universidad de California, Irvine, expresó su incredulidad, afirmando: “Estoy casi sin palabras. Que las preguntas sean redactadas por no abogados utilizando inteligencia artificial es simplemente increíble”. Katie Moran, profesora asociada de la Facultad de Derecho de la Universidad de San Francisco, se hizo eco de este sentimiento, calificándolo como una “admisión asombrosa”. El hecho de que ACS Ventures, la firma responsable de la creación de las preguntas de IA, también las aprobara, agrava aún más estas preocupaciones.

La decisión del Colegio de Abogados del Estado de explorar la IA en el desarrollo de preguntas fue influenciada por presiones externas. Alex Chan, presidente del Comité de Examinadores del Colegio de Abogados del Estado, explicó que la Corte Suprema de California había instado al Colegio de Abogados del Estado a explorar “nuevas tecnologías, como la inteligencia artificial” para mejorar la fiabilidad o la rentabilidad. Esta presión resalta la tendencia más amplia de integrar la IA en varios sectores, incluso aquellos con importantes implicaciones profesionales y éticas.

El uso de la IA en evaluaciones de alto riesgo es parte de una tendencia más amplia de integración de la IA en varios campos. El auge de la IA generativa ha llevado a la automatización de numerosas tareas, incluidas aquellas con consecuencias sustanciales. Los ejemplos del impacto de la IA se extienden más allá del campo legal, y algunos especulan que la fórmula utilizada para calcular las tasas arancelarias de la Administración Trump fue creada por IA.

Sin embargo, el uso de la IA en estos contextos no está exento de inconvenientes. El artículo destaca los desafíos inherentes asociados con la IA generativa, particularmente su tendencia a “alucinar” o generar información inexacta. Las implicaciones éticas de la subcontratación de trabajo crítico a la IA también son significativas, especialmente cuando se trata de áreas como el derecho, donde la precisión y la integridad son primordiales.

La profesión legal ya ha visto casos de uso indebido de la IA. En 2023, dos abogados de Nueva York fueron sancionados por usar ChatGPT en un escrito legal que citaba casos falsos. Las revistas académicas también están lidiando con la afluencia de artículos que contienen texto generado por IA. Estos ejemplos subrayan el potencial de errores e infracciones éticas cuando la IA se utiliza sin la supervisión y validación adecuadas.

La controversia en torno al examen de abogacía de California subraya la necesidad de una consideración cuidadosa y una supervisión sólida al integrar la IA en las prácticas profesionales críticas. Las preocupaciones planteadas por los académicos y educadores legales resaltan la importancia de garantizar la precisión, la equidad y la integridad ética de las evaluaciones que determinan las carreras de los futuros abogados. El debate en torno al uso de la IA en el examen de abogacía sirve como una advertencia, enfatizando la necesidad de una innovación responsable y un enfoque cauteloso de la integración de la IA en entornos de alto riesgo.

El Colegio de Abogados de California empleó IA, a través de ACS Ventures, para generar 23 de 171 preguntas del examen de abogacía, lo que provocó indignación entre estudiantes y educadores por preocupaciones sobre la precisión, las implicaciones éticas y el doble rol de la firma en la creación y aprobación. Este incidente resalta una creciente tendencia de integración de la IA en campos críticos, planteando interrogantes sobre la fiabilidad, la responsabilidad y las posibles consecuencias imprevistas a medida que la influencia de la IA generativa se expande.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *