Un tribunal de apelaciones de Nueva York se encontró recientemente con una situación extraña cuando un demandante intentó presentar su argumento legal a través de un avatar de IA. El incidente pone de relieve la creciente, y a veces incómoda, integración de la inteligencia artificial en el sistema legal, tras casos anteriores de errores generados por IA en investigaciones y presentaciones legales.
Un incidente sin precedentes que involucró a un avatar de IA intentando argumentar un caso se desarrolló en una corte de apelaciones de Nueva York, destacando la incómoda integración de la inteligencia artificial en el sistema legal. Durante una audiencia el 26 de marzo, un panel de jueces de la División de Apelaciones del Tribunal Supremo del Estado de Nueva York, Primer Departamento Judicial, fue presentado con un argumento en video de Jerome Dewald, un demandante en una disputa laboral. Sin embargo, rápidamente se hizo evidente que la persona en la pantalla no era real.
Al comenzar el video, apareció un hombre sonriente, de aspecto juvenil, con un peinado esculpido y vestimenta profesional, declarando: “Que le plazca a la corte. Vengo hoy humilde pro se ante un panel de cinco distinguidos jueces”. Esto llevó a la jueza Sallie Manzanet-Daniels a preguntar si se trataba del abogado del caso. Dewald entonces admitió: “Lo generé. Esa no es una persona real”, revelando que era un avatar generado por IA.
La revelación de que la corte estaba siendo abordada por una entidad inexistente generada por IA no fue bien recibida por los jueces. La jueza Manzanet-Daniels expresó su disgusto, afirmando: “Hubiera sido bueno saberlo cuando hizo su solicitud. No me lo dijo, señor”. Luego ordenó que se apagara el video, agregando: “No me gusta que me engañen”. A pesar de la interrupción inicial y la clara frustración de la jueza, a Dewald finalmente se le permitió continuar con su argumento en persona.
Después del incidente, Dewald ofreció una disculpa a la corte, explicando sus intenciones. Como se representaba a sí mismo en la demanda sin asesoramiento legal, necesitaba presentar sus argumentos personalmente. Creía que el avatar entregaría la presentación de manera más efectiva de lo que él podría, ya que normalmente tiene dificultades para murmurar y tropezar con las palabras. En una entrevista con The Associated Press, Dewald detalló que había solicitado permiso a la corte para reproducir un video pregrabado y posteriormente utilizó un producto de una empresa tecnológica de San Francisco para crear el avatar. Inicialmente intentó crear una réplica digital de sí mismo, pero no pudo hacerlo antes de la audiencia. Reconoció la fuerte reacción de la corte, afirmando: “La corte estaba realmente molesta por eso. Me regañaron bastante bien”.
Este incidente no es la primera vez que el mundo legal se encuentra con problemas con el uso de la inteligencia artificial. En junio de 2023, dos abogados y un bufete de abogados fueron multados con $5,000 por un juez federal en Nueva York después de que confiaron en una herramienta de IA para la investigación legal, lo que resultó en la citación de casos legales ficticios fabricados por el chatbot. El bufete involucrado atribuyó esto a un “error de buena fe”, admitiendo que no lograron comprender que la IA podría generar información inventada. Más tarde ese año, aparecieron más fallos judiciales fabricados por IA en documentos legales presentados por los abogados de Michael Cohen, un ex abogado personal del presidente Donald Trump. Cohen asumió la responsabilidad, explicando que no sabía que la herramienta de Google que estaba utilizando para la investigación legal era propensa a lo que se denominan “alucinaciones de IA”.
Curiosamente, si bien estos casos resaltan los posibles inconvenientes de la IA en la práctica legal, algunos tribunales están explorando intencionalmente su uso. La Corte Suprema de Arizona, por ejemplo, comenzó recientemente a utilizar dos avatares generados por IA, similares al que empleó Dewald, para proporcionar resúmenes públicos de los fallos judiciales. Estos avatares, llamados “Daniel” y “Victoria”, se presentan en el sitio web de la corte como estando allí “para compartir sus noticias”.
Según Daniel Shin, profesor adjunto y subdirector de investigación en el Centro de Tecnología Legal y Judicial de la Facultad de Derecho William & Mary, la aparición de un avatar de IA intentando argumentar un caso en un tribunal de Nueva York era “inevitable”. Sugiere que, si bien un abogado probablemente evitaría tal acción debido a las reglas profesionales y el riesgo de inhabilitación, las personas que se representan a sí mismas sin asesoramiento legal a menudo carecen de orientación sobre los riesgos potenciales asociados con el uso de videos producidos sintéticamente para sus presentaciones. A pesar de la controversia, Dewald indicó que está tratando de mantenerse al día con la tecnología, habiendo asistido recientemente a un seminario web patrocinado por la Asociación Americana de Abogados que discutió la aplicación de la IA en el campo legal. Hasta el jueves, el caso de Dewald seguía pendiente ante el tribunal de apelaciones.
La corte de Nueva York se sorprendió por el uso de un avatar de IA por un demandante, lo que resultó en una reprimenda y una disculpa. Este incidente, junto con otros errores relacionados con la IA en la investigación legal y citas de fallos judiciales fabricados, subraya las dificultades y los posibles riesgos de integrar la inteligencia artificial en el sistema legal. A medida que las herramientas de IA se vuelven más comunes, establecer directrices claras y límites éticos dentro de la profesión legal es crucial para prevenir futuros contratiempos y garantizar la integridad del sistema de justicia.
Leave a Reply