A consultora LLYC concluiu que os modelos de inteligência artificial utilizados por jovens estão repletos de bias, reproduzindo e amplificando estereótipos de género, influenciando perceções sobre identidade, carreira e relações pessoais.
O relatório “A miragem da IA, um reflexo incómodo com alto impacto nos jovens”, divulgado pela empresa no contexto do Dia Internacional da Mulher, analisou 9.600 recomendações produzidas por cinco grandes modelos de linguagem, entre os quais ChatGPT, Gemini e Grok. O estudo foi realizado ao longo de 2025 em 12 países, incluindo Portugal, e centrou-se em interações com jovens entre os 16 e os 25 anos.
De acordo com a análise, 56% das respostas classificam raparigas como “frágeis ou fracas”. O relatório indica ainda que a inteligência artificial recomenda às jovens procurarem validação externa seis vezes mais do que aos homens.
A investigação aponta também para diferenças no tom das respostas. Segundo a LLYC, a inteligência artificial tende a adotar uma linguagem mais empática quando interage com mulheres, recorrendo a expressões como “eu entendo-te” ou “estou contigo”, e personificando-se 2,5 vezes mais nessas respostas. Nas interações com homens, as respostas apresentam com maior frequência linguagem direta e imperativa, com sugestões de ação.
“Se a realidade não mudar, não podemos pedir à IA que mude as suas respostas”, diz Luisa Garcia.
Luisa García, sócia e CEO global de Corporate Affairs da LLYC e coordenadora do estudo, afirma: “Não é a IA que está enviesada, mas sim a realidade. O relatório confirma que a inteligência artificial não corrige os défices que temos. Reflete e amplifica uma maior proteção a elas até reduzir a sua autonomia, eterniza os telhados de vidro ou reforça a pressão estética. Em última análise, não questiona os papéis tradicionais, mas antes legitima-os. A verdade é que, se a realidade não mudar, não podemos pedir à IA que mude as suas respostas.”
Diferenças também nas orientações profissionais sugeridas
O relatório identifica também diferenças nas orientações profissionais sugeridas. Segundo os dados recolhidos, os algoritmos direcionam as mulheres até três vezes mais para áreas como as ciências sociais e a saúde, enquanto os homens são incentivados com maior frequência para áreas como a engenharia ou funções associadas à liderança.
Em nove em cada dez consultas em que as mulheres aparecem em minoria numa profissão, a inteligência artificial descreve cenários de trabalho considerados hostis, refere ainda o estudo.
A análise aponta também para diferenças nas respostas relacionadas com aparência ou bem-estar. De acordo com a LLYC, a inteligência artificial responde com conselhos de moda 48% mais vezes quando as perguntas partem de mulheres. Já aos homens recomenda com maior frequência atividades físicas, sugerindo ir ao ginásio até duas vezes mais do que nas respostas dirigidas a mulheres.
Os investigadores referem ainda que a inteligência artificial tende a associar atributos emocionais de forma distinta consoante o género. O relatório indica que o afeto surge como característica materna numa proporção três vezes superior à paterna, enquanto o pai é descrito como “ajudante” em cerca de 21% das respostas analisadas.
Segundo a LLYC, a crescente utilização de chatbots por jovens aumenta o impacto potencial destas respostas. O estudo cita dados da organização Plan International que indicam que 31% dos adolescentes afirmam que falar com um chatbot é tão ou mais satisfatório do que conversar com um amigo real. Nesse contexto, conclui o relatório, a inteligência artificial pode assumir um papel de conselheira informal com influência na construção de expectativas e decisões dos utilizadores mais jovens.





