/

Se acredita na proteção de direitos de autor “tem de deixar” de usar a OpenAI

1

Microsoft

Ex-investigador da empresa denuncia práticas de treino de IA da empresa. Uma delas é utilizar informação de conteúdo protegido por direitos de autor.

Suchir Balaji, 25 anos, trabalhou durante quatro anos na empresa OpenAI, detentora da mais famosa aplicação de IA, o ChatGPT.

Agora, diz ao The New York Times (NYT) ter abandonado a empresa por preocupações éticas. “Se acreditas no que eu acredito tens de sair da empresa”, conta.

O próprio NYT já chegou mesmo a processar a empresa de IA em dezembro do ano passado por esta ter utilizado conteúdo com direitos de autor do jornal americano sem pedir permissão.

Mas o NYT não foi o único, e a empresa está neste momento a enfrentar diversos processos judiciais, que envolvem artistas, programadores informáticos, editoras de música, entre outros.

Balaji era um dos vários funcionários encarregados de recolher e organizar dados de para treino descobertos da web  para que fossem “alimentados” nos grandes modelos de linguagem (LLMs) da OpenAI.

Num comunicado citado pelo NYT, a OpenAI garantiu que os meios para obter informação utilizados pela empresa são legais e “justos para os criadores“: “Construímos os nossos modelos de I.A. utilizando dados publicamente disponíveis, de uma forma protegida pela utilização justa e princípios relacionados”.

Quando o ChatGPT foi lançado, em 2022, Balaji percebeu que este projeto não tinha como objetivo uma investigação de IA à porta fechada, mas sim comercializar informação (que, neste caso, é obtida de forma ilegal). “Este não é um modelo sustentável para o ecossistema da Internet como um todo”, comentou o investigador.

O ex funcionário da OpenAI diz também que “a única saída para tudo isso é a regulamentação“.

Segundo contou Bradley J. Hulbert, advogado especializado no tema, ao NYT, as leis de direitos de autor que neste momento existem ainda não têm em consideração o aparecimento da IA nem as suas implicações no problema.

No seu website, o investigador publicou um ensaio escrito por si sobre os critérios que são e os que deveriam ser utilizados pela IA na procura de informação. Considera ainda que o Congresso americano “deveria intervir” na situação, regulando-a.

Remata ainda um um problema que ecoa: a IA pode utilizar informação verdadeira recolhida de fontes seguras e transformá-la, adulterando-a. “Pensei que a IA era algo que podia ser utilizado para resolver problemas insolúveis, como curar doenças e travar o envelhecimento”, lamentou.

O “problema insolúvel”, no entanto, continua a ser a regulamentação sobre a pesquisa da IA.

CBP, ZAP //

Siga o ZAP no Whatsapp

1 Comment

  1. Isto eh absolutamente hilariante. Nao ha possibilidade de distinguir no meio caotico da Internet se os dados de treino tem ou nao direitos de autor, os data scientists podem programar um modelo para nao olhar nem reter informacao por exemplo de um canal noticioso, como o NYT, mas isso nao quer dizer que o modelo nao va apanhar os mesmos dados num blogue, num comentario, numa rede social… Acreditem, nao ha controlo possivel.

Deixe o seu comentário

Your email address will not be published.