Erros da IA levam Deloitte a reembolsar Austrália num exemplo do impacto da tecnologia

O reembolso parcial da Deloitte à Austrália devido a um relatório cheio de erros ou a entrevista ‘fabricada’ de Michael Schumacher, tudo envolvendo IA, são exemplos de uma tendência que aumenta à medida que a tecnologia avança. Os erros sobre a informação errada ou falsa resultante da inteligência artificial (IA) já têm histórico em várias…
ebenhack/AP
Recentemente, em Portugal, a Google teve de corrigir os conteúdos falsos sobre quem era Anabela Natário, depois de a jornalista e escritora ter feito queixa à tecnológica.
Tecnologia

O reembolso parcial da Deloitte à Austrália devido a um relatório cheio de erros ou a entrevista ‘fabricada’ de Michael Schumacher, tudo envolvendo IA, são exemplos de uma tendência que aumenta à medida que a tecnologia avança.

Os erros sobre a informação errada ou falsa resultante da inteligência artificial (IA) já têm histórico em várias partes do mundo. A mais recente, do início de outubro, dá conta que a Deloitte Austrália vai reembolsar parcialmente os 440 mil dólares australianos (290 mil dólares norte-americanos ou 250.136 euros, à taxa de câmbio atual) pagos pelo Governo australiano por um relatório repleto de erros aparentemente gerados por IA, incluindo uma citação falsa de uma sentença judicial federal e referências a artigos de pesquisa académica inexistentes, de acordo com a Associated Press (AP).

A tendência dos sistemas de IA generativa fabricarem informação é designada por alucinação.

Na sequência disto, foi publicada uma versão revista, onde foi incluída a divulgação de que um sistema de linguagem IA generativa, o Azure OpenAI, tinha sido usado na elaboração do relatório, embora a “substância” do mesmo se tenha mantido, segundo os responsáveis.

Um dos casos amplamente falado é o processo de IA de Schumacher, que se refere à criação de uma entrevista falsa, gerada por IA, com o conhecido piloto de Fórmula 1 (F1) pela revista alemã Aktuelle em 2023. A revista publicou na sua capa, em abril de 2023, a frase: “Michael Schumacher, a primeira entrevista!”, escrevendo ainda: “Parece enganosamente real”, com as alegadas declarações de Schumacher geradas por IA. Mais de um ano depois, em 23 de maio de 2024, a família do piloto anunciou que tinha ganhado o processo contra a editora da revista.

A porta-voz da família, Sabine Kehm, confirmou à AP que a ação judicial tinha sido bem-sucedida. A indemnização terá sido de 200 mil euros e a ‘publisher’ alemã Funke Magazines, além de ter pedido desculpas à família, despediu a responsável da revista.

Um dos primeiros casos a fazer notícia data de abril de 2023, quando um autarca australiano anunciou que iria avançar com uma ação judicial por difamação devido a informações falsas partilhadas pelo ChatGPT, no que a Reuters classificou na altura como um dos primeiros casos judiciais do género com conteúdos do modelo de IA da OpenAI.

De acordo com a BBC, Brian Hood, presidente de Hepburn Shire, em Victoria, Austrália, afirmou que a IA alegou falsamente que foi detido por suborno enquanto trabalhava para uma subsidiária do banco nacional da Austrália, quando, na verdade, foi denunciante e nunca foi acusado de qualquer crime.

Este caso chamou a atenção para o problema das alucinações na IA generativa — em que o sistema produz informação verosímil, mas factualmente incorreta — e levantou questões legais sobre a responsabilidade das empresas donas destes modelos de IA e pelo seu conteúdo.

Mais recentemente, em abril deste ano, o ativista conservador Robby Starbuck interpôs um processo por difamação contra a Meta, alegando que o ‘chatbot’ de inteligência artificial da gigante das redes sociais Facebook e Instagram disseminou declarações falsas sobre ele, incluindo a de que teria participado no tumulto no Capitólio dos Estados Unidos em 06 de janeiro de 2021.

Entretanto, em 22 de outubro, Robby Starbuck avançou com um processo de difamação contra a ferramenta de IA da Google que o ligou a acusações de agressão sexual e outras falsidades, de acordo com o The Wall Street Journal.

Estes são apenas alguns exemplos, mas os casos de erros e conteúdos fabricados multiplicam-se um pouco por todo o mundo à medida que a tecnologia avança.

(LUSA/Alexandra Luís)

Mais Artigos