O advogado de um homem que processou uma companhia aérea num processo por danos pessoais, usou o ChatGPT para preparar um processo, mas o bot de inteligência artificial apresentou casos que o advogado aproveitou para fundamentar a sua exposição em tribunal. Problema: esses casos eram falsos, o que levou o juiz a ponderar a aplicação de sanções, com a comunidade jurídica a debater-se com um dos primeiros casos de “alucinações” de IA que chegam ao tribunal.
Como tudo aconteceu
No início deste ano, a Avianca Airlines, com sede na Colômbia, procurou rejeitar um processo judicial federal em que um homem, Roberto Mata, alegou ter sido “atingido por um carrinho de servir de metal” a bordo de um voo de 2019 e sofreu ferimentos.
Ao apresentar uma resposta, os advogados de Mata citaram pelo menos seis outros alegados casos para mostrar precedentes, incluindo o que opunha um suposto cidadão Varghese à China Southern Airlines e outro cidadão de suposto nome Shaboon à Egypt Air. No entanto, o tribunal considerou que os casos não existiam e tinham “decisões judiciais falsas com citações falsas e citações internas falsas”, levando um juiz federal a considerar a aplicação de sanções.
Um membro da equipa de advogados de Mata revelou então que tinha utilizado o ChatGPT para realizar pesquisas jurídicas para o processo judicial que referia os casos e que a ferramenta de inteligência artificial lhe garantiu que os casos eram reais.
Steven Schwartz – o advogado que utilizou o ChatGPT e representou Mata antes de o caso ter sido transferido para um tribunal onde não tem competência para exercer – assinou uma declaração sob juramento, admitindo que utilizou o chatbot de IA, mas afirmando que não tinha intenção de enganar o tribunal e que não agiu de má fé, argumentando que não deveria ser sancionado.
Schwartz disse mais tarde, num processo de 8 de junho, que ficou “mortificado” quando soube dos casos falsos e que, quando utilizou a ferramenta, “não compreendeu que não era um motor de busca, mas uma ferramenta de processamento de linguagem generativa”.
O advogado explicou que nunca tinha utilizado o ChatGPT para investigação jurídica e que tomou conhecimento da tecnologia “através dos seus filhos em idade universitária”, acrescentando que leu artigos sobre os benefícios da IA em contextos profissionais e sobre como as ferramentas “poderiam tornar a investigação jurídica obsoleta”.
Os advogados de Schwartz não quiseram comentar e a FORBES contactou os representantes da Avianca.
O uso do ChatGPT foi descoberto depois dos advogados da Avianca não terem conseguido encontrar qualquer dos documentos do tribunal para os casos em relação aos quais a equipa jurídica de Mata se referiu e entraram com um pedido a solicitar mais informações sobre eles. Schwartz voltou então ao ChatGPT para obter cópias dos documentos dos processos, ainda acreditando que se tratava de um motor de busca, e entregou-os ao outro advogado de Mata, Peter LoDuca, explicaram os advogados de Schwartz nos processos judiciais. Ao analisar os documentos fornecidos, o juiz federal P. Kevin Castel, de Nova Iorque, determinou que os processos eram falsos e anunciou que o tribunal estava a enfrentar uma “circunstância sem precedentes” e que iria considerar a imposição de sanções.
Juiz vai analisar que medidas irá impor
O juiz federal de Nova Iorque, P. Kevin Castel, ordenou a Schwartz e ao outro advogado de Mata, Peter LoDuca, que comparecessem numa audiência presencial na quinta-feira ao meio-dia para explicar por que razão não deveriam sofrer sanções por citarem “casos inexistentes”. Espera-se que Castel determine se as sanções se justificam ou se o castigo que Schwartz e a sua firma de advogados dizem já ter sofrido – acusações de fraude e danos irreparáveis à sua reputação – é adequado, mas não foi tomada qualquer decisão durante a audiência, segundo um repórter do Courthouse News.
Ao argumentar que as sanções “não serviriam para nada” no seu processo antes da audiência de sanções, a equipa de Scwhartz escreveu: “O Sr. Schwartz e a sua firma já se tornaram os autores dos perigos de se envolver com novas tecnologias; a sua lição foi aprendida”.
O repórter Josh Russell, do Courthouse News, disse que o juiz fez um “reprimenda severa” e sugeriu que ainda poderia impor sanções.
Vantagens e riscos
O ChatGPT – um chatbot alimentado por inteligência artificial da OpenAI – ganhou popularidade no início deste ano quando se tornou amplamente disponível, embora com o seu crescimento tenham surgido preocupações sobre as suas capacidades. Os estudantes admitiram utilizar a IA para fazer os trabalhos de casa e os políticos começaram a utilizar imagens criadas artificialmente em anúncios de campanha, mas existe a preocupação de que a tecnologia para alterar imagens ou redigir texto com a IA esteja a avançar para além da capacidade humana de detetar falsificações, o que pode levar a uma maior desconfiança na sociedade.
No dia-a-dia, os chatbots como o ChatGPT ou o Bard da Google têm riscos devido à sua capacidade de inventar informações ou de se basear incorretamente nas suas bases de conhecimento e dar informações falsas aos utilizadores, como aconteceu a Schwartz, a quem o ChatGPT garantiu que os casos que lhe foram dados eram reais.
Estas plataformas e os seus algoritmos são treinados em bases de dados existentes de imagens ou texto e ensinados a gerar respostas a partir da base de dados, mas muitas vezes confundem informações ou criam respostas falsas às perguntas.
O The Verge comparou o ChatGPT, o chatbot do Bing da Microsoft e o Bard da Google e concluiu que alguns eram melhores do que outros, mas mesmo assim descreveu-os todos como “confusos, em mais do que um sentido”.
No campo jurídico, a startup DoNotPay, sediada em Nova Iorque, criou uma forma baseada em IA para as pessoas contestarem multas de trânsito – um utilizador usaria óculos inteligentes que lhe dariam informações para dizer em tribunal geradas por IA – mas antes que o criador pudesse apresentá-lo em tribunal, disse que recebeu ameaças de várias associações de advogados sobre “prática não autorizada da lei”, informou a National Public Radio.
Posição assumida por outro tribunal
Embora o Tribunal do Distrito Sul de Nova Iorque vá decidir o que fazer em resposta à utilização de ChatGPT por Schwartz, um tribunal noutro local do país já tomou medidas em resposta à situação. Um juiz federal do Distrito Norte do Texas emitiu uma ordem permanente no final de maio, depois de a situação de Schwartz ter sido notícia, segundo a qual qualquer pessoa que compareça perante o tribunal deve atestar que “nenhuma parte de qualquer processo será redigida por inteligência artificial generativa” ou assinalar qualquer linguagem que tenha sido redigida por IA para ser verificada quanto à sua exatidão.
Escreveu que, embora estas “plataformas sejam incrivelmente poderosas e tenham muitas utilizações na lei”, os briefings não são uma delas, uma vez que as plataformas são “propensas a alucinações e preconceitos” no seu estado atual.