A Organização Mundial da Saúde alertou esta terça-feira para o uso de Inteligência Arificial na área da saúde, que pode gerar orientações incorretas, violação de dados pessoais ou disseminar desinformação, exigindo uma maior fiscalização dos governos.
A inteligência artificial aplicada na saúde pode gerar orientações incorretas, violação de dados pessoais e disseminar desinformação. O alerta é da Organização Mundial da Saúde, OMS.
A agência da ONU pede “cautela” com o uso de plataformas como o ChatGPT, Bard ou Bert “que imitam a compreensão, o processamento e a produção da comunicação humana”.
Segundo a OMS, as chamadas ferramentas de modelos de linguagem (LLM, large language models), geradas por IA, podem “representar riscos para o bem-estar humano e para a saúde pública”.
Os especialistas da OMS consideram que a rápida e ampla difusão das LLM e o crescente uso experimental para fins relacionados com a saúde não está a ser acompanhado por mecanismos de controlo, destaca uma publicação no portal ONU News.
Entre os mecanismos de controlo referidos estão a adesão das plataformas de inteligência artificial a valores como transparência, inclusão, supervisão especializada ou avaliação rigorosa.
“A OMS reconhece que o uso apropriado de tecnologias, incluindo LLM, pode contribuir para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas”, destaca ainda.
As novas plataformas podem ser “uma ferramenta de apoio às decisões médicas e aumentar a capacidade de diagnóstico em ambientes com poucos recursos”, mas o foco “deve estar em proteger a saúde das pessoas e reduzir a desigualdade”, acrescenta.
Algumas preocupações da OMS são:
- As LLMs geram respostas que podem parecer confiáveis e plausíveis para um utilizador final. No entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para temas relacionados com a saúde.
- As LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente. Além disso, essas ferramentas não protegem necessariamente dados confidenciais, incluindo de saúde, que um utilizador forneça para gerar uma resposta.
- As LLMs podem ser utilizados para gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, tornando difícil para o público diferenciar conteúdo falso de conteúdo confiável.
Apesar dos benefícios, esta agência destaca os “riscos associados” ao uso destas ferramentas para melhorar o acesso a informações de saúde, defendendo que “precisam de ser avaliados cuidadosamente”.
“A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na Inteligência Artificial e em tecnologias futuras”, alerta.
Os dados utilizados para treinar a inteligência artificial podem ser tendenciosos, gerando informações falsas ou imprecisas que podem representar riscos à saúde, à equidade e à inclusão, aponta também.
Para enfrentar essas situações, a OMS propõe que as autoridades de cada país analisem os benefícios da Inteligência Artificial para fins de saúde antes de generalizar o seu uso.
Nesse sentido, a organização identificou seis princípios fundamentais que devem reger: a proteção da autonomia dos profissionais, a promoção do bem-estar humano, as garantias de transparência, a promoção da responsabilidade, a inclusão e a promoção da Inteligência Artificial.
ZAP // Lusa
Como Utente ; Aponto um risco TOTAL , para esta “burrice” artificial !…………A Tecnologia e Ciência , deve ter os seus limites se quizer-mos valorizar a competência Humana !