A Inteligência Artificial (IA) e a tecnologia têm o potencial de moldar nosso futuro de uma forma sem precedentes. No entanto, o avanço tecnológico também apresenta implicações éticas profundas, incluindo preocupações sobre privacidade, discriminação algorítmica e desigualdade digital. Como a IA é treinada com dados históricos, ela pode perpetuar preconceitos existentes, incluindo os relacionados com o género e raça.
Especialistas reuniram-se, em Faro, no âmbito do Humanity Summit, que se realiza até à próxima sexta-feira, dia 22, para discutir como a violência política de género e raça se torna ainda mais preocupante num ambiente impulsionado pela tecnologia e pela IA. As manifestações de violência política incluem ameaças online, difamação, assédio cibernético e até deepfakes, que podem ser usados para denegrir a reputação de candidatas mulheres e, muito particularmente, das minorias raciais.
Disso mesmo deu conta Kim Smouter, diretor-geral da European Network Against Racism (ENAR). “A IA baseia toda a sua ação com base em dados que lhe são fornecidos”, explicou, para de seguida lançar a questão: “Somos críticos o suficiente para questionar estes dados, que perguntas lançamos à máquina? Que respostas queremos da máquina?”
A gestão de dados, segundo Kim Smouter, é o ponto crucial, pois esta pode gerar novas formas de violência sobre as minorias. “Esta nova forma de violência não apenas mina a confiança nas instituições políticas, mas também desencoraja mulheres e minorias raciais de se envolverem”, sustentou, para garantir que “limita a sua participação e representatividade”. O que se torna especialmente preocupante, considerando que a diversidade é fundamental para uma democracia saudável.
Os especialistas presentes, para além de Smouter – Besma Kraiem, Sofia Riço Calado e Nicolas Porot – enfatizam a necessidade de abordar as questões éticas de maneira séria. Estratégias para combater a violência política incluem educação pública sobre as consequências prejudiciais dessa prática, legislação mais rigorosa para punir agressores e apoio às vítimas.
O poder do algoritmo
Destacando, ainda, que a IA e a tecnologia podem ser usadas para detetar e prevenir a disseminação da violência política online. Algoritmos podem ser projetados para identificar discursos de ódio e ataques virtuais, ajudando a criar um ambiente online mais seguro para todas as vozes.
“É indispensável verificar todas as informações fornecidas através de IA não basta assumirmos que a ‘máquina’ está correta”, salientou Sofia Riço Calado, assessora especialista em proteção de dados e cibersegurança. “O mundo não é todo igual e é nossa obrigação verificar para que, assim, seja possível retirar o melhor que a IA tem para nos oferecer e dar melhores respostas aos nossos desafios”.
O evento também destacou a importância de promover a inclusão e a diversidade na tecnologia e na política. À medida que construímos um futuro digital, é crucial que todas as vozes sejam representadas e que as tecnologias sejam desenvolvidas de forma justa e imparcial.
O desafio ético do cruzamento da IA, da tecnologia e da violência política de género e raça é um lembrete de que o progresso tecnológico deve ser acompanhado por reflexão ética e ação concreta. A construção de um futuro inclusivo e igualitário exige que se enfrentem estes desafios de frente e o compromisso de criar um mundo onde a participação política seja verdadeiramente representativa e livre de discriminação.
As manifestações de violência política de género e raça incluem ameaças, assédio, difamação e desqualificação baseados no género ou raça dos envolvidos. Elas não apenas afetam o bem-estar emocional e a segurança das vítimas, mas também desencorajam a participação política ativa, restringindo o acesso de mulheres e minorias raciais a cargos representativos.
É urgente o envolvimento das mulheres
No painel dedicado à violência de género e raça, Schuma Schumaher – ativista feminina e escritora brasileira – e Carolina Vieira – membro da Casa do Brasil em Portugal – destacaram que a violência política de género e raça é um obstáculo significativo para a construção de sociedades verdadeiramente igualitárias e democráticas. Ela mina a confiança nas instituições políticas e impede que vozes e experiências diversificadas sejam representadas nos processo de tomadas de decisão.