/

Se acredita na proteção de direitos de autor “tem de deixar” de usar a OpenAI

Microsoft

Ex-investigador da empresa denuncia práticas de treino de IA da empresa. Uma delas é utilizar informação de conteúdo protegido por direitos de autor.

Suchir Balaji, 25 anos, trabalhou durante quatro anos na empresa OpenAI, detentora da mais famosa aplicação de IA, o ChatGPT.

Agora, diz ao The New York Times (NYT) ter abandonado a empresa por preocupações éticas. “Se acreditas no que eu acredito tens de sair da empresa”, conta.

O próprio NYT já chegou mesmo a processar a empresa de IA em dezembro do ano passado por esta ter utilizado conteúdo com direitos de autor do jornal americano sem pedir permissão.

Mas o NYT não foi o único, e a empresa está neste momento a enfrentar diversos processos judiciais, que envolvem artistas, programadores informáticos, editoras de música, entre outros.

Balaji era um dos vários funcionários encarregados de recolher e organizar dados de para treino descobertos da web  para que fossem “alimentados” nos grandes modelos de linguagem (LLMs) da OpenAI.

Num comunicado citado pelo NYT, a OpenAI garantiu que os meios para obter informação utilizados pela empresa são legais e “justos para os criadores“: “Construímos os nossos modelos de I.A. utilizando dados publicamente disponíveis, de uma forma protegida pela utilização justa e princípios relacionados”.

Quando o ChatGPT foi lançado, em 2022, Balaji percebeu que este projeto não tinha como objetivo uma investigação de IA à porta fechada, mas sim comercializar informação (que, neste caso, é obtida de forma ilegal). “Este não é um modelo sustentável para o ecossistema da Internet como um todo”, comentou o investigador.

O ex funcionário da OpenAI diz também que “a única saída para tudo isso é a regulamentação“.

Segundo contou Bradley J. Hulbert, advogado especializado no tema, ao NYT, as leis de direitos de autor que neste momento existem ainda não têm em consideração o aparecimento da IA nem as suas implicações no problema.

No seu website, o investigador publicou um ensaio escrito por si sobre os critérios que são e os que deveriam ser utilizados pela IA na procura de informação. Considera ainda que o Congresso americano “deveria intervir” na situação, regulando-a.

Remata ainda um um problema que ecoa: a IA pode utilizar informação verdadeira recolhida de fontes seguras e transformá-la, adulterando-a. “Pensei que a IA era algo que podia ser utilizado para resolver problemas insolúveis, como curar doenças e travar o envelhecimento”, lamentou.

O “problema insolúvel”, no entanto, continua a ser a regulamentação sobre a pesquisa da IA.

CBP, ZAP //

Siga o ZAP no Whatsapp

Deixe o seu comentário

Your email address will not be published.