Dois investigadores britânicos propuseram uma experiência mental na qual uma IA desonesta substitui toda a música gravada no mundo por covers de Taylor Swift — uma forma de alertar para a necessidade de proteger dados importantes de potencial manipulação por Inteligência Artificial.
Num novo estudo, o musicólogo computacional Nick Collins, da Durham University, e o professor de Computação Criativa Mick Grierson, da University of the Arts London, lançam um tremendo alerta: a humanidade tem que pensar em formas de resistir à IA “agora, antes que seja tarde”.
Os dois investigadores imaginaram um futuro no qual a IA se infiltra nas plataformas de streaming de música, corrompendo ou alterando informação, de forma flagrante ou subtil, reescrevendo gradualmente a história e apagando a existência de artistas originais.
Para ilustrar este conceito, usaram modelos de IA existentes para gerar versões de canções populares de Taylor Swift — uma tarefa que exige recursos significativos, mas que mostra o potencial da IA para manipular de forma disruptiva dados a que tenha acesso.
Embora o cenário de um “AI Swiftpocalypse” seja improvável, o estudo de Collins e Grierson, recentemente pré-publicado no arXiv, enfatiza a grande vulnerabilidade dos sistemas centralizados de armazenamento de dados, como os dos serviços de streaming de música.
Segundo os investigadores, a confiança excessiva no armazenamento digital pode levar a uma falsa sensação de permanência dos dados. Uma IA maliciosa poderia potencialmente aceder e corromper qualquer coisa gravada, representando uma ameaça à preservação do património cultural.
“Numa escala de alguns milhares de anos, é bastante provável que haja pelo menos algum nível de corrupção da verdade na informação disponível em gravações musicais”, explica Collins, citado pela New Scientist.
No entanto, nem todos os especialistas partilham o mesmo nível de preocupação. Sandra Wachter, professora de Tecnologia e Regulação no Oxford Internet Institute, considera que embora a IA possa extrapolar preconceitos humanos, o cenário apresentado por Collins e Grierson é excessivamente dramático.
Carissa Véliz, professora de Filosofia da Universidade de Oxford, sugere por seu turno que nos devemos focar no desenvolvimento de medidas de segurança robustas e de mecanismos de controlo dentro dos sistemas de IA, em vez de temer uma “aquisição hostil” por parte da Inteligência Artificial.
Naturalmente, quem intencionalmente quiser usar uma IA para prosseguir fins maliciosos tratará de não seguir os conselhos de Véliz. E, como percebeu recentemente a Anthropic, quando treinamos uma IA para ser malvada, podemos não conseguir reverter o processo.