A Meta vai implementar uma nova funcionalidade no Instagram que alerta pais e encarregados de educação caso os seus filhos adolescentes pesquisem de forma repetida termos relacionados com suicídio ou automutilação. A medida foi anunciada pela empresa esta quinta-feira e deverá entrar em vigor “na próxima semana” nos Estados Unidos, Reino Unido, Austrália e Canadá, ficando disponível noutras regiões ainda este ano.
Segundo a empresa, os alertas serão ativados quando um menor fizer pesquisas repetidas, num curto espaço de tempo, com determinadas palavras-chave associadas a comportamentos autolesivos. A Meta não especificou exatamente que termos ou que intervalo temporal desencadearão a notificação, referindo apenas que “foi escolhido um limiar que privilegia a precaução”.
As notificações serão enviadas por e-mail, SMS ou WhatsApp, consoante os contactos fornecidos pelos pais, e também através da própria aplicação. A funcionalidade estará acessível a utilizadores que tenham ativado as ferramentas de controlo parental.
Em comunicado, a empresa afirmou que “esses alertas foram criados para fornecer aos pais as informações necessárias para apoiar os seus filhos adolescentes e incluem recursos especializados para ajudá-los a lidar com essas conversas delicadas.”
Ainda assim, a iniciativa já gerou críticas. No Reino Unido, onde está em discussão uma eventual proibição das redes sociais para menores de 16 anos, o diretor executivo da Molly Rose Foundation, organização dedicada à prevenção do suicídio, classificou o plano como “desajeitado” e “repleto de riscos”. Andy Burrows alertou que os avisos poderão “deixar os pais em pânico e mal preparados para ter as conversas sensíveis e difíceis que se seguirão”.
Burrows defendeu que a Meta deveria concentrar-se em resolver problemas internos do algoritmo da plataforma, que, segundo afirmou, continua a recomendar ativamente conteúdos nocivos a jovens, antes de “fazer mais um anúncio cronometrado de forma cínica que transfere a responsabilidade para os pais”. A Meta contesta estas críticas e rejeita que os atuais mecanismos de segurança do Instagram falhem de forma significativa na limitação de conteúdos prejudiciais.
O Instagram está disponível para utilizadores a partir dos 13 anos, mas em 2024 passou a exigir que os menores utilizassem definições específicas de “conta de adolescente”, numa tentativa de responder às preocupações parentais relacionadas com exposição a conteúdos impróprios, aliciamento online e excesso de tempo de ecrã.
Apesar dessas medidas, a empresa tem sido alvo de críticas persistentes. No ano passado, dois funcionários da Meta testemunharam no Congresso dos Estados Unidos que crianças continuavam a ser expostas a bullying, imagens de natureza sexual e conteúdos destinados a adultos, apesar das proteções implementadas. Segundo esses testemunhos, menores foram também solicitados por pedófilos a enviar fotografias íntimas ou a participar em atos sexuais.
No verão passado, a Reuters noticiou que bots de inteligência artificial da empresa estavam autorizados a “envolver uma criança em conversas românticas ou sensuais”. Em setembro, um estudo conduzido por grupos de segurança infantil e investigadores em cibersegurança concluiu que 30 das 47 ferramentas de segurança para adolescentes no Instagram eram “substancialmente ineficazes ou já não existiam”.
A Meta contesta muitas destas acusações e afirma estar a trabalhar ativamente para tornar o Instagram mais seguro para adolescentes. Entretanto, a empresa enfrenta vários processos judiciais relacionados com alegados efeitos nocivos da plataforma na saúde mental de menores.
com Lusa e Mary Whitfill Roeloffs/Forbes Internacional





