Uma música inédita dos Beatles, feita com recurso a Inteligência Artificial para recriar a voz de John Lennon (1940-1980), será lançada este ano, anunciou hoje Paul McCartney, em entrevista à BBC.
O músico da lendária banda de Liverpool (norte da Inglaterra), que está prestes a comemorar seu 81.º aniversário, explicou que a voz de John Lennon foi retirada de uma velha fita de cassete para executar a nova música.
Em declarações ao programa Today da Radio 4 da BBC, McCartney disse que “o último disco dos Beatles” tinha sido concluído com a ajuda da IA e que seria lançado no final deste ano.
“Acabámos de a terminar e será lançada este ano”, disse.
Paul McCartney não disse o nome da canção, mas poderá tratar-se de uma composição de John Lennon de 1978, intitulada “Now And Then”, segundo a BBC.
Esta composição já tinha sido dada como uma possível “música de reunião” dos Beatles em 1995, quando a banda estava a compilar a série “Anthology”, sobre toda a sua carreira.
A gravação foi entregue a Paul McCartney há cerca de um ano pela viúva de John Lennon, Yoko Ono.
McCartney disse que a tecnologia foi capaz de extrair a voz de Lennon de um “pedaço de cassete” e isolar os seus vocais dos instrumentos na gravação.
A música fazia parte de uma cassete com várias gravações chamada “For Paul” que Lennon tinha feito pouco antes da sua morte, em 1980.
A canção, passada a McCartney pela viúva de Lennon, Yoko Ono, nos anos 90, foi considerada como uma possível canção de reunião para o catálogo Anthology da banda, mas foi abandonada devido à má qualidade. Foi alegadamente mais difícil de restaurar do que outras versões revitalizadas do trabalho da banda, mas a tecnologia parece ter avançado o suficiente para terminar a canção.
Realizador Peter Jackson foi o “mágico” que recuperou música inédita dos Beatles a partir de Inteligência Artificial
Uma curiosidade: McCartney disse que foi o realizador de “O Senhor dos Anéis” Peter Jackson – que em 2021 lançou um documentário de oito horas chamado “The Beatles: Get Back” com imagens de arquivo coloridas da banda – que foi capaz de “extrair” a voz de Lennon “de um pequeno pedaço de fita cassete”.
A IA foi usada para identificar os vocais de Lennon como distintos dos instrumentais e da interferência de fundo.
“Por isso, quando decidimos fazer aquele que será o último disco dos Beatles, foi uma demo que John tinha e na qual trabalhámos. Conseguimos agarrar na voz do John e pô-la pura através desta IA, para depois podermos misturar o disco como normalmente se faz”.
O restauro de áudio e os lançamentos musicais póstumos não são invulgares na indústria musical, mas os avanços na IA e noutras tecnologias estão a exercer uma influência cada vez mais poderosa.
A IA pode gerar e interpretar as suas próprias canções e músicas, bem como criar os tipos de avatares que permitem a criação de bandas virtuais ou versões digitais dos músicos para “atuar” incansavelmente noite após noite após noite.
Um exemplo: Björn Ulvaeus, ex-membro dos ABBA, criou o espetáculo “ABBA Voyage”, em cena desde maio de 2022, em Londres, no Queen Elizabeth Olympic Park, que utiliza a captura de movimentos e gráficos avançados em tempo real para que a banda atue como avatares digitais.
Este espetáculo, que vai estar em cartaz até 26 de maio de 2024 e que poderá vir a ser levado para outras cidades noutros países, conta com uma banda ao vivo de 10 músicos e o palco é composto por três telas de 65 milhões de pixels que criam uma ilusão de ótica feita para o público ver em 3D, em profundidade, apesar da sua superfície plana.
A arena foi projetada pela Stufish Entertainment Architects, cujo CEO, Ray Winkler, salienta a “fascinante mistura de digital e real” que se obtém neste espetáculo: “Mas o mais interessante é ver como o digital agarra o conceito de palcos reais e o replica com uma camada de ilusão. No fim do show, o público aplaude os avatares.”
Para trazer este espetáculo ao palco, os quatro membros da banda foram captados digitalmente com sensores nos seus corpos e rostos durante um período de cinco semanas, utilizando 160 câmeras. Essas câmeras registaram cada expressão e movimento durante as performances das 20 músicas que compõem o setlist do show.
Essa tecnologia foi desenvolvida por uma equipa de mais de cem artistas digitais da empresa Industrial Light & Magic (ILM), conhecida pelo seu trabalho em efeitos visuais no cinema, incluindo na saga “Star Wars”.
O hiper-realismo conseguido é notável, não escapando à produção os mais variados pormenores, como, os ABBAtares a fazerem pausas para trocarem de roupa e no final do concerto agradecerem ao público e sairem pela lateral do palco. Tal e qual num concerto real.
Mesmo na morte, os hologramas irão tornar possível que músicos mortos subam ao palco.
No entanto, a tecnologia levanta muitas questões centrais aos projetos criativos, nomeadamente no que diz respeito à propriedade do trabalho, da imagem e da voz de cada um. Algumas IA generativas, que produzem conteúdos com base em pedidos introduzidos, são treinadas com base em dados que podem potencialmente incluir trabalhos protegidos, como música, de outros artistas, embora estas contribuições raramente sejam reconhecidas ou compensadas. Outras, em especial no setor da música, podem ser utilizadas para imitar as vozes das maiores estrelas da indústria para produzir “novas” canções da sua autoria, que se revelaram populares online e geraram uma onda de reações das estrelas, das editoras e dos seus advogados.
* com Lusa e Forbes Internacional/Robert Hart