Esta semana recebi uma chamada de um número desconhecido. Do outro lado, perguntaram pelo meu nome. A voz parecia natural, humana e convincente. Até se ouvia o barulho de fundo de um escritório movimentado. Só percebi que algo estava errado por causa de um detalhe: um pequeno atraso pouco natural entre as minhas respostas e as do lado de lá. Foi nesse instante que me caiu a ficha. Não era uma pessoa, era um deepfake.
O episódio é um retrato do tempo em que vivemos. Se até uma simples chamada telefónica pode ser manipulada por inteligência artificial, como distinguir o real do artificial? A resposta é perturbadora: em muitos casos, não conseguimos. Segundo um estudo recente do Institute of Electrical and Electronics Engineers (IEEE), quase 80% dos adultos não são capazes de dizer se um vídeo deepfake é verdadeiro ou falso. Este está a tornar-se o novo normal da era digital.
O impacto vai muito além de pequenas fraudes. Em Hong Kong, um homem transferiu 25 milhões de dólares após uma chamada com quem acreditava ser o CFO da empresa. Em França, uma mulher acreditou que andava a trocar mensagens com o Brad Pitt e foi burlada em 830 mil euros. Só nos Estados Unidos, registaram-se mais de 105 mil ataques deste tipo no ano passado, de acordo com o Wall Street Journal. E na área financeira, as fraudes motivadas por deepfakes aumentaram 3.000% em 2023, com prejuízos médios de meio milhão de dólares por incidente.
Perante este cenário, é evidente que os modelos atuais de deteção, fact-checking e moderação estão a reagir tarde demais. A luta contra os deepfakes não pode limitar-se a identificar conteúdos falsos depois de já terem sido partilhados. O essencial é assegurar, desde o início, que o que vemos e ouvimos tem uma origem autêntica.
É aqui que entra a ideia de “proof of human”, tecnologias de verificação criptográfica capazes de provar que estamos a interagir com uma pessoa real. Ao invés de perguntar “isto é falso?”, a tecnologia terá de garantir “isto é humano”. Pode proteger comunicações, validar transações financeiras e até permitir assinar conteúdo digitalmente, de forma a preservar a autenticidade na origem.
O futuro das interações digitais está em jogo. Ou caminhamos para um mundo de desconfiança permanente, onde ver já não é acreditar, ou adotamos uma nova infraestrutura digital que nos devolva a confiança que estamos a perder rapidamente, através de mecanismos e ferramentas que validem a nossa humanidade online.
Talvez daqui a alguns anos, quando atendermos uma chamada de um número desconhecido, não estejamos a passar, sem querer, por uma nova versão do Teste de Turing.
Rebecca Hahn,
Chief Communications Officer na Tools for Humanity