À medida que as empresas aceleram os seus investimentos em inteligência artificial, a procura de energia dos sistemas intensivos em processamento está a preocupar tanto as organizações que suportam os custos como quem é responsável por fornecer eletricidade fiável. De modelos de linguagem de grande escala a gémeos digitais que analisam conjuntos de dados massivos para simulações de alta precisão em sistemas urbanos complexos, as cargas de trabalho de IA exigem uma quantidade extraordinária de capacidade computacional.
No centro desta procura estão os centros de dados, que estão a evoluir a um ritmo acelerado para sustentar o crescimento da IA. Estudos e relatórios internacionais indicam que o consumo de eletricidade destes ambientes deverá duplicar até 2030, identificando a IA como o principal fator por trás deste aumento¹.
Os líderes de TI que analisam estas previsões impressionantes estão, legitimamente, focados em melhorar a eficiência destes sistemas robustos. No entanto, a falta de especialização para navegar arquiteturas complexas, aliada à velocidade da inovação, tem deixado muitos profissionais sobrecarregados. Embora algumas organizações mais preparadas já estejam a incorporar requisitos de eficiência desde o início dos seus projetos de TI e a analisar todo o ciclo de vida da IA para identificar oportunidades de redução de impacto, muitas ainda não sabem por onde começar ou deixam ganhos de eficiência passar despercebidos. A maioria subutiliza diversos recursos disponíveis para melhorar a eficiência energética, como linguagens de software mais eficientes e a otimização da utilização dos dados para garantir a máxima eficiência das cargas de trabalho de IA. Entre as inovações de infraestrutura, um dos avanços mais promissores que estamos a observar nos centros de dados é o arrefecimento líquido direto, conhecido como DLC.
Como os sistemas que executam cargas de trabalho de IA produzem muito mais calor, as soluções tradicionais baseadas em ar simplesmente não conseguem acompanhar o ritmo dos superchips presentes nas arquiteturas mais recentes. A tecnologia DLC faz circular líquidos refrigerantes através de tubos em contacto direto com os processadores para dissipar o calor e já demonstrou ser eficaz na manutenção segura de sistemas de IA de alta potência. A adoção do DLC tem gerado um impacto mensurável e transformador em vários ambientes, com reduções no consumo de energia para arrefecimento de quase 90% em comparação com o arrefecimento a ar em sistemas de supercomputação².
Felizmente, estes benefícios estão a expandir-se para além dos supercomputadores e a chegar a uma gama mais alargada de servidores de alto desempenho que suportam tanto a supercomputação como as cargas de trabalho de IA. A transição do DLC de uma solução de nicho para uma opção mais acessível em diferentes sistemas de computação está a permitir que mais organizações beneficiem dos ganhos de eficiência proporcionados por esta tecnologia, que em alguns casos atingem até 65% de poupança anual de energia³.
Combinar este tipo de inovação em arrefecimento com ferramentas novas e melhoradas de monitorização do consumo, capazes de fornecer informação altamente precisa e em tempo real, está a tornar-se essencial para as equipas de TI que procuram otimizar a utilização de energia. Para organizações que enfrentam custos crescentes de eletricidade e analisam cuidadosamente o custo total de propriedade dos seus sistemas, esta evolução é bem-vinda e representa uma área estratégica de inovação para os próximos anos.
Para que a sustentabilidade em IA avance, é essencial que seja impulsionada por políticas que estabeleçam padrões concretos e que, por sua vez, incentivem soluções inovadoras. Tecnologias de infraestrutura como o DLC desempenharão um papel fundamental para tornar isto possível, não só ao reduzir emissões e enfrentar o desafio do consumo energético, mas também ao sustentar a viabilidade de longo prazo do desenvolvimento da IA em vários setores. Já estamos a ver este movimento ganhar força no mundo real.
Além disso, líderes da indústria estão a transformar a forma como lidam com o calor gerado por estes sistemas de grande escala para promover ainda mais eficiência na IA. Aproveitar o calor dos centros de dados para outros fins será uma peça essencial na mitigação dos riscos de segurança energética e dos desafios de eficiência colocados pela IA. Estes ambientes estão a ser redesenhados para capturar o calor residual e utilizá-lo como um recurso valioso, em vez de o descartar como desperdício. Vários setores já beneficiam desta prática, como a agricultura em estufas e o aquecimento de edifícios em unidades de saúde e residenciais.
A mensagem é clara: à medida que a IA ocupa um espaço cada vez maior nos projetos de transformação digital, cresce também a necessidade de soluções eficientes na utilização de recursos. As considerações de sustentabilidade em IA precisam de fazer parte de cada etapa do ciclo de vida da tecnologia, com soluções como o DLC a integrarem um plano multifacetado de sustentabilidade em TI.
Ao trabalhar em conjunto com os governos para estabelecer enquadramentos e métricas ambientais eficazes e pragmáticas, podemos incentivar o crescimento e a evolução da indústria de IA, impulsionando uma inovação dinâmica em soluções e no design de centros de dados, em benefício de todos.
Alfredo Yepez,
vice-presidente sénior para a América Latina e Sul da Europa e Diretor-Geral da Hewlett Packard Enterprise Espanha
[²] https://www.hpe.com/us/en/newsroom/blog-post/2024/08/liquid-cooling-a-cool-approach-for-ai.html





