Emory BrainGate Team

Paciente com paralisia a usar a interface cérebro-computador desenvolvida no estudo
Uma interface cérebro-computador permitiu que pessoas com paralisia transformassem diretamente os pensamentos em palavras, com menos esforço do que técnicas anteriores, nas quais era necessário fazer uma tentativa física de falar. Mas ainda estamos muito longe verdadeiramente ler pensamentos.
Pessoas com paralisia podem agora ver os seus pensamentos convertidos em fala apenas ao imaginarem falar mentalmente.
Embora as interfaces cérebro-computador já consigam decifrar a atividade neuronal de pessoas com paralisia quando estas tentam fisicamente falar, esse processo pode exigir um esforço considerável.
Na realidade, os cientistas andam pelo menos desde 2018 a tentar ler pensamentos com a ajuda de IA — com diferentes abordagens e graus de sucesso.
Em 2023, uma equipa de investigadores da Universidade do Texas criou um descodificador de linguagem capaz de traduzir pensamentos humanos em texto, de forma não invasiva, utilizando leituras de ressonância magnética e um interpretador de Inteligência Artificial semelhante ao ChatGPT.
Num novo estudo, Benyamin Meschede-Krasa, investigador da Universidade de Stanford, e a sua equipa, procuraram agora uma abordagem menos exigente em termos de energia cerebral e mais simples.
“Queríamos perceber se existiam padrões semelhantes quando alguém estava simplesmente a imaginar falar na sua cabeça”, explica o investigador à New Scientist.
“E descobrimos que isso poderia ser uma alternativa — e, de facto, uma forma mais confortável — para que pessoas com paralisia utilizem este tipo de sistema para restaurar a sua comunicação.”
Os resultados do estudo foram apresentados num artigo publicado nesta quinta-feira na revista Cell.
Meschede-Krasa e os seus colegas recrutaram quatro pessoas com paralisia grave, causada por esclerose lateral amiotrófica (ELA) ou por um AVC no tronco cerebral. Todos os participantes tinham já, para investigação, microeletrodos implantados no córtex motor, uma região envolvida na fala.
Os investigadores pediram a cada participante que tentasse pronunciar uma lista de palavras e frases, e que também apenas imaginasse pronunciá-las. Verificaram que a atividade cerebral era semelhante em ambos os casos, embora os sinais de ativação fossem geralmente mais fracos no discurso imaginado.
A equipa treinou um modelo de IA para reconhecer e decifrar esses sinais, utilizando uma base de dados vocabular com até 125 mil palavras.
Para proteger a privacidade do discurso interno, programaram a IA para desbloquear apenas quando os participantes pensavam na palavra-passe Chitty Chitty Bang Bang, que foi detetada com 98% de precisão.
Ao longo de uma série de experiências, a equipa verificou que imaginar a pronúncia de uma palavra permitia ao modelo decifrá-la corretamente em até 74% dos casos.
Isto demonstra uma prova de conceito sólida para esta abordagem, mas que ainda não é tão robusta como as interfaces que decifram a fala tentada, diz Frank Willett, também investigador da Universidade de Stanford e coautor do estudo.
“Melhorias contínuas, tanto nos sensores como na IA, nos próximos anos poderão aumentar a precisão”, acrescenta o investigador, membro sénior da equipa do projeto BrainGate.
Os participantes manifestaram uma clara preferência por este sistema, mais rápido e menos trabalhoso do que os baseados na fala tentada, afirma Meschede-Krasa.
O conceito segue “uma direção interessante” para o futuro das interfaces cérebro-computador, comenta Mariska Vansteensel, investigadora do UMC Utrecht, nos Países Baixos, que não esteve envlvida no estudo.
“No entanto, falta-lhe a capacidade de diferenciar entre fala tentada, o que queremos realmente dizer e os pensamentos que pretendemos manter privados. Não tenho a certeza de que todos consigam distinguir com tanta precisão estes diferentes conceitos de fala imaginada e fala tentada”, nota Vansteensel.
Segundo a investigadora, a palavra-passe teria de poder ser ativada e desativada, conforme a decisão do utilizador de expressar ou não um pensamento a meio de uma conversa.
“Temos de garantir verdadeiramente que as frases emitidas através de uma interface cérebro-computador são aquelas que a pessoa pretende partilhar com o mundo — e não aquelas que quer manter para si, aconteça o que acontecer”, realça.
Benjamin Alderson-Day, investigador da Universidade de Durham, no Reino Unido, afirma que não há motivo para considerar este sistema um “leitor de mentes”.
“Funciona apenas com exemplos muito simples de linguagem”, diz. “Se os seus pensamentos se limitarem a palavras isoladas como ‘árvore’ ou ‘pássaro’, então talvez se possa preocupar, mas ainda estamos muito longe de conseguir captar pensamentos livres e ideias mais íntimas das pessoas.”