A OpenAI identificou e interrompeu cinco operações de influência envolvendo utilizadores da Rússia, China, Irão e Israel que utilizavam a sua tecnologia de inteligência artificial (IA), que inclui o ChatGPT, para gerar conteúdos destinados a influenciar enganosamente a opinião pública e o discurso político.
Os responsáveis pelas operações utilizaram a IA para gerar conteúdos partilhados numa variedade de plataformas, incluindo código para bots, e para criar a falsa aparência de envolvimento, gerando respostas falsas em publicações nas redes sociais, afirmou a empresa.
Duas operações tiveram origem na Rússia, uma envolvendo a bem estabelecida campanha Doppelganger, que usou IA para gerar conteúdo e comentários falsos, e a outra envolvendo uma operação “anteriormente não relatada” que a empresa chama de Bad Grammar, que a OpenAI disse ter usado os seus modelos para codificar um bot que postou comentários políticos curtos no Telegram.
A OpenAI disse que a operação chinesa conhecida como Spamouflage, notória por seus esforços de influência no Facebook e Instagram, usou os seus modelos para pesquisar atividades de redes sociais e gerar conteúdo baseado em texto em vários idiomas e em várias plataformas.
A União Internacional Iraniana de Meios de Comunicação Virtuais utilizou a IA para gerar conteúdos em várias línguas, segundo a OpenAI.
A OpenAI associou uma campanha a uma empresa israelita de campanhas políticas chamada Stoic, que utilizou a IA para gerar publicações sobre Gaza no Instagram, Facebook e X, anteriormente conhecido como Twitter, visando audiências no Canadá, nos EUA e em Israel.
As operações também geraram conteúdos sobre a invasão russa na Ucrânia, as eleições indianas, a política ocidental e as críticas ao governo chinês, afirmou a OpenAI no seu primeiro relatório sobre o assunto.
(Com Forbes Internacional/James Farrell)