A Inteligência Artificial (IA) tem-se revelado uma força motriz no avanço tecnológico global e tem trazido benefícios inegáveis. No entanto, tal como acontece com toda a tecnologia disruptiva, a rápida evolução da IA traz consigo uma série de desafios éticos, legais e socioeconómicos. A União Europeia (UE), reconhecendo a crescente relevância e importância de regulamentar a IA de forma adequada, tem trabalhado continuamente na Lei de Inteligência Artificial (AI Act) – uma proposta que visa classificar sistemas de IA com base no risco e estabelecer requisitos diferenciados para seu desenvolvimento e uso. Esta legislação, a primeira do género à escala global, encontra-se em revisão, com previsão de conclusão até ao final de 2023. Uma evolução notável ocorreu em junho de 2023. O Parlamento Europeu adotou emendas e propôs regras harmonizadas sobre IA, entre as quais se destacam a proibição da utilização desta em vigilância biométrica e a obrigação de sistemas de IA generativos marcarem conteúdo por estes gerado. Adicionalmente, a proposta proíbe o reconhecimento de emoções e sistemas de policiamento preditivo, estabelecendo regimes específicos para IA de propósito geral e modelos fundamentais. Estas atualizações sinalizam um compromisso da UE em formular uma regulamentação robusta para a IA.
Apesar destes avanços significativos, subsistem ainda desafios primordiais. Em primeiro lugar, uma clara definição do conceito de IA, que regule diferentes formatos e a diferencie de automatismos. Adicionalmente, o aperfeiçoamento das categorias de risco face a desafios de segurança, privacidade e direitos fundamentais, e análise especializada de casos de uso por área de aplicação. Mas, sobretudo, a devida regulamentação não deve ser vista como algo estático, mas sim como uma oportunidade para criar um ambiente seguro e de confiança, ao estabelecer padrões éticos para o desenvolvimento e uso da tecnologia. O equilíbrio entre a proteção dos cidadãos e o estímulo à inovação deve ser mantido, e para tal, a cooperação internacional e a partilha de boas práticas são essenciais.
E no momento de prestar contas? Um ponto crucial na regulamentação da IA passa por estabelecer a responsabilidade adequada em caso de danos ou consequências negativas. Isso envolve definir claramente quem é responsável – o fabricante, o fornecedor, o operador ou todos os envolvidos – e desenvolver um sistema de prestação de contas efetivo. Além disso, a rastreabilidade dos sistemas de IA deve ser garantida, permitindo a identificação de erros e a atribuição da devida responsabilização.
Acima de tudo, é fundamental ter presente que a proteção dos direitos individuais e a garantia de equidade são pilares fundamentais na regulamentação da IA e a legislação deve abordar o viés algorítmico, a discriminação e a privacidade dos dados. Para que tudo isto possa acontecer num ambiente equilibrado e justo, é essencial estabelecer um órgão de supervisão robusto, com uma estrutura adequada.
A IA poderá alcançar o seu verdadeiro potencial e contribuir de forma significativa para o progresso, mas a sua regulamentação deve ser um processo dinâmico e adaptável. É fundamental que haja diálogo entre as partes interessadas, incluindo empresas, governos, sociedade civil e especialistas em IA, para garantir que as regulamentações sejam eficazes, proporcionais e adequadas aos avanços tecnológicos e às necessidades sociais.
Paulo Mota, cofundador da Coreflux