“Lei histórica” vai controlar a Inteligência Artificial na Europa

A primeira regulação do mundo direcionada para a IA estabelece uma série de obrigações para a tecnologia — mas a ideia também é promover a sua inovação e tornar a UE numa “líder no setor”.

O Parlamento Europeu aprovou esta quarta-feira aquela que classificou como uma “lei histórica” para regular a inteligência artificial na União Europeia (UE), a primeira legislação ao nível mundial para esta tecnologia, para salvaguardar os direitos fundamentais no espaço comunitário.

Numa votação final feita na sessão plenária, na cidade francesa de Estrasburgo, a assembleia europeia deu aval à nova legislação com 523 votos a favor, 46 contra e 49 abstenções.

Sublinhando que a nova lei “garante a segurança e o respeito pelos direitos fundamentais, ao mesmo tempo que impulsiona a inovação”, a instituição indica em comunicado estarem em causa salvaguardas para democracia, Estado de direito e sustentabilidade ambiental, nomeadamente face à inteligência artificial (IA) de alto risco.

O regulamento estabelece, por isso, uma série de obrigações para a IA com base nos seus riscos potenciais e no seu nível de impacto, estipulando a proibição de certas aplicações, limitações da utilização de sistemas de identificação biométrica pelas autoridades policiais, isenções aplicáveis à lei, obrigações para os sistemas de alto risco e requisitos de transparência.

Além disso, a ideia é tornar a UE numa “líder no setor” da IA, estando por isso previstas medidas de apoio à inovação e às pequenas e médias empresas, ainda segundo o Parlamento Europeu (PE).

O aval surgiu após um acordo provisório, alcançado em meados de dezembro passado e após várias horas de discussão, entre os colegisladores da UE – o Conselho e o PE – sobre as primeiras regras do mundo para a IA.

 

A base do acordo é um sistema com escalas baseadas no risco, onde o mais alto nível de regulamentação se aplica às máquinas que representam o maior risco para a saúde, a segurança e os direitos humanos, explica o The Guardian.

A categoria de maior risco agora é definida pelo número de operações de computação necessárias para treinar a máquina, conhecidas como “operações de ponto flutuante por segundo” (Flops). Atualmente, apenas um modelo, o GPT4, se enquadra nesta nova definição.

O nível de regulamentação mais baixo ainda impõe obrigações significativas aos serviços de IA, incluindo regras básicas sobre a divulgação de dados usados ​​para treinar as máquinas.

Os colegisladores (Estados-membros e eurodeputados) estavam desde junho a negociar as primeiras regras comunitárias para que as tecnologias que recorrem à IA salvaguardem os valores e direitos fundamentais da UE e a segurança dos utilizadores, obrigando os sistemas considerados de alto risco a cumprir requisitos obrigatórios relacionados com a sua fiabilidade, no seguimento de uma proposta da Comissão Europeia apresentada em 2021.

Esta será, então, a primeira regulação direcionada para a IA, apesar de os criadores e os responsáveis pelo desenvolvimento desta tecnologia estarem já sujeitos à legislação europeia em matéria de direitos fundamentais, de proteção dos consumidores e de regras em matéria de segurança.

Previsto está que sejam introduzidos requisitos adicionais para colmatar os riscos, como a existência de supervisão humana ou a obrigação de informação clara sobre as capacidades e as limitações da inteligência artificial.

A IA tem vindo a ser cada vez mais usada em áreas como o entretenimento (personalização dos conteúdos), o comércio ‘online’ (previsão dos gostos dos consumidores), os eletrodomésticos (programação inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais como a Siri ou a Alexa, entre outros).

A Comissão Europeia tem tentado reforçar a cooperação entre os Estados-membros relativamente à IA, mas ainda não existe um enquadramento legal comum, pelo que o objetivo é passar de uma abordagem voluntária para a esfera regulatória.

ZAP // Lusa

Deixe o seu comentário

Your email address will not be published.