Steven Schwartz, un prestigioso abogado del bufete Levidow, Levidow, & Oberman, podría ser sancionado después de admitir que utilizó el modelo de inteligencia artificial ChatGPT para redactar documentos judiciales que citaron seis casos inexistentes. Esta situación ha generado un escándalo en la esfera jurídica y representa un hito sin precedentes para la inteligencia artificial en el ámbito del derecho.
En una declaración jurada presentada el 24 de mayo, Schwartz se disculpó por usar la inteligencia artificial para complementar la investigación jurídica que realizó para el caso. Asimismo, prometió que nunca volverá a usar ChatGPT sin antes verificar completamente la autenticidad de la información proporcionada por la herramienta.
Según Schwartz, las «citas y opiniones en cuestión fueron proporcionadas por ChatGPT, que también proporcionó su fuente legal y aseguró la confiabilidad de su contenido». Sin embargo, más tarde admitió que los casos eran ficticios y que había confiado erróneamente en la información proporcionada por el modelo de inteligencia artificial.
Este escándalo ha dado lugar a una revisión crítica sobre el uso de la inteligencia artificial en el campo jurídico, particularmente en el uso de herramientas como ChatGPT para realizar investigaciones y presentar argumentos legales. La situación ha llevado al Juez Federal Kevin Castel a considerar posibles sanciones para Schwartz y sus asociados por su negligencia en verificar las fuentes proporcionadas por ChatGPT.
El juez Castel resaltó la seriedad de la situación al decir que «el Tribunal se enfrenta a una circunstancia sin precedentes». Schwartz, junto con su compañero de bufete Peter LoDuca y el resto del equipo, están citados a comparecer en una audiencia el 8 de junio para justificar por qué no deberían ser sancionados.
Los documentos presentados por Schwartz incluían no solo nombres de casos inventados, sino también una serie de extractos de decisiones judiciales falsas. Estas citas falsas sembraron la confusión y condujeron a una serie de intercambios y declaraciones juradas en un intento por validar la autenticidad de estos casos inexistentes.
El caso que Schwartz estaba defendiendo, Roberto Mata contra Avianca, es real. Mata está buscando daños por lesiones sufridas durante un vuelo de Avianca de El Salvador a Nueva York en agosto de 2019 cuando un carrito de bebidas y bocadillos de metal golpeó su rodilla. Sin embargo, la reputación de este caso ha sido manchada por las tácticas poco éticas empleadas por Schwartz.
Schwartz, en su defensa, alegó que ChatGPT afirmó que los casos citados eran reales. Pero como una inteligencia artificial, ChatGPT está sujeta a errores y no debe ser considerada una fuente infalible de información.
Este incidente subraya la importancia de usar herramientas de inteligencia artificial como ChatGPT con precaución y discernimiento. Aunque estas tecnologías pueden ser útiles para la investigación y la generación de contenido, es esencial recordar que su precisión no está garantizada y que siempre deben ser complementadas con la verificación de datos por parte de humanos. Este caso también resalta la necesidad de que los profesionales legales estén bien informados sobre las capacidades y limitaciones de la inteligencia artificial, para poder usarla de manera efectiva y ética.
Libro recomendado sobre inteligencia artificial: