ZAP // Sergei Tokmakov, 0fjd125gk87 / Pixabay

A gigante tecnológica Microsoft vai intentar um processo contra quatro developers internacionais que terão contornado as regras de segurança e abusaram das suas ferramentas de IA para gerar deepfakes pornográficos de celebridades e outros “conteúdos prejudiciais”.
Num post recentemente publicado no seu blog Microsoft On the Issues, a tecnológica norte-americana anunciou ter intentado ações judiciais contra quatro membros da rede de crime cibernético Storm-2139, que acusa de abuso das suas ferramentas de IA.
Os alegados cibercriminosos têm alcunhas que parecem saídas de um filme de hackers do início dos anos 2000: Arian Yadegarnia, ou “Fiz”, do Irão; Alan Krysiak, aka “Drago“, do Reino Unido; Ricky Yuen, também conhecido como “cg-dot“, de Hong Kong; e Phát Phùng Tấn, ou “Asakuri“, do Vietname.
Na publicação, a Microsoft divide os indivíduos que compõem o Storm-2139 em três níveis, “criadores, fornecedores e utilizadores“, que terão montado uma rede ilegal de serviços, baseada em ataques informáticos e na modificação das ferramentas de IA da empresa, para criar material ilegal ou destrutivo.
“Os criadores de software desenvolveram as ferramentas ilícitas que permitiram o abuso de serviços gerados por IA”, lê-se no post, acrescentando que os “fornecedores as modificaram e forneceram aos utilizadores finais, muitas vezes com diferentes níveis de serviço e pagamento”, detalha o post.
“Finalmente”, continua o texto, “os utilizadores usaram essas ferramentas para gerar conteúdo sintético violador, muitas vezes centrado em celebridades, e imagens sexuais”.
A ação judicial civil foi inicialmente apresentada em dezembro, embora na altura todos os arguidos estivessem simplesmente identificados como “John Doe”.
Agora, à luz das novas provas reveladas na investigação da Microsoft sobre o Storm-2139, a empresa optou por desmascarar alguns dos alegados criminosos envolvidos no litígio, diz o Futurism.
As investigações da Microsoft estão ainda em curso, e há outros alegados criminosos que ainda não foram identificados — mas a gigante da tecnologia adianta que pelo menos dois são norte-americanos.
“Estamos a intentar esta ação legal, agora contra réus identificados“, diz a Microsoft no post, “para interromper a sua conduta, continuar a desmantelar as suas operações ilícitas e dissuadir outros que pretendam usar a nossa tecnologia de IA como arma”.
De acordo com a Microsoft, anteriores iniciativas legais conseguiram dividir o Storm-2139; em janeiro, a “apreensão” do site do grupo e “a subsequente revelação dos processos legais gerou uma reação imediata dos intervenientes, em alguns casos fazendo com que os membros do grupo se denunciassem mutuamente”.
Segundo o Gizmodo , a decisão da Microsoft de lançar todo o seu enorme peso legal contra alegados abusadores de sua tecnologia cai numa zona cinzenta no debate em curso sobre a segurança da IA e como as empresas devem procurar limitar o uso indevido destas ferramentas.
Algumas empresas, como a Meta de Mark Zuckerberg, optaram por lançar os seus modelos em open source — uma abordagem mais descentralizada ao desenvolvimento da IA.
Mas alguns especialistas argumentam que o código aberto pode permitir que atores mal intencionados aproveitem silenciosamente tecnologias avançadas de IA, à margem de qualquer supervisão pública.
A Microsoft, por seu lado, adotou uma abordagem mista, mantendo alguns dos seus modelos fechados.
No entanto, apesar dos vastos recursos e dos compromissos declarados do gigante tecnológico em relação a uma IA segura e responsável, os criminosos encontraram ainda aparentemente formas de ultrapassar as suas barreiras de proteção e lucrar com a sua má utilização.
O Trump vai ser o primeiro a ser processado.
Hooo…. Não pode, é o Presidente!