Lembra-se dos advogados que usaram o ChatGPT em tribunal – e citaram casos falsos? O caso passou-se nos EUA e já há sanções aplicadas.
Os dois advogados que utilizaram casos falsos gerados pelo ChatGPT foram multados em 5.000 dólares, marcando as primeiras sanções importantes resultantes da utilização de inteligência artificial no domínio jurídico.
Na sua decisão, o juiz distrital de Nova Iorque, P. Kevin Castel, afirmou que Steven Schwartz – o advogado que utilizou o ChatGPT – e Peter LoDuca, colega de trabalho de Schwartz e advogado que tomou conta do caso quando este saiu da jurisdição de Schwartz, “evitaram conscientemente” os sinais de que os casos que estavam a utilizar como exemplos eram falsos, agindo assim de má fé e induzindo o tribunal em erro.
Castel afirmou que, embora não haja “nada de intrinsecamente impróprio na utilização de uma ferramenta de inteligência artificial fiável para assistência”, os dois advogados foram sancionados porque abandonaram as suas responsabilidades e mantiveram os casos falsos, o que levou a que “muitos danos resultassem da apresentação”.
Castel disse que se a dupla tivesse confessado os seus erros, escreveu ele, “o registo agora seria muito diferente”, mas em vez disso, eles mantiveram essas versões e apresentaram os falsos processos judiciais e pareceres criados pela inteligência artificial como factos.
Levidow Levidow & Oberman, o escritório de advocacia de Schwartz, disse à Forbes que os advogados em causa estão a considerar as suas opções e “não tomaram nenhuma decisão quanto a apelar” da sentença.
Levidow Levidow & Oberman disse numa declaração à Forbes que “tenciona cumprir integralmente” a ordem do tribunal, mas “discorda respeitosamente” que alguém da firma “tenha agido de má fé”. A declaração prossegue: “Continuamos a acreditar que, perante aquilo que até o Tribunal reconheceu ser uma situação sem precedentes, cometemos um erro de boa-fé ao não acreditar que uma peça de tecnologia pudesse estar a inventar casos a partir do nada.”
Resumo do caso
Schwartz era consultor jurídico de Roberto Mata, que estava a processar a Avianca Airlines, alegando que tinha sido “atingido por um carrinho de servir de metal” a bordo de um voo de 2019 e sofrido ferimentos pessoais. A Avianca havia pedido o arquivamento do caso e, em resposta, Schwartz apresentou seis casos para mostrar precedentes, incluindo Varghese vs. China Southern Airlines e Shaboon vs. Egypt Air. Mas o tribunal considerou que os casos – que mais tarde se viriam a revelar terem sido criados pelo ChatGPT – não existiam e tinham “decisões judiciais falsas com citações falsas e citações internas falsas”. Quando a defesa questionou alguns dos casos e pediu documentos e pareceres, Schwartz voltou ao ChatGPT, que lhe deu documentos legais fabricados que depois apresentou ao tribunal como factos, levando Castel a considerar a aplicação de sanções. Schwartz assinou uma declaração juramentada admitindo que utilizou o chatbot de IA, mas afirmou que não tinha intenção de enganar o tribunal e que não agiu de má fé. Disse que ficou “mortificado” quando soube dos casos falsos e “não compreendeu que (o ChatGPT) não era um motor de busca, mas uma ferramenta de processamento de linguagem generativa”.
Molly Bohannon/Forbes Staff