Jerry Tang / Universidade do Texas em Austin

Uma equipa de investigadores desenvolveu um algoritmo que permite a um “descodificador cerebral” alimentado por IA, treinado numa pessoa, traduzir os pensamentos de outra com um treino mínimo
Um revolucionário “descodificador cerebral” de inteligência artificial (IA) pode ler os pensamentos de uma pessoa, apenas com um rápido exame ao cérebro e quase sem formação.
Um estudo publicado recentemente na Current Biology anunciou que um grupo de cientistas da Universidade do Texas em Austin (UT Austin) desenvolveu melhorias num “descodificador cerebral” que utiliza IA para converter pensamentos em texto.
O novo algoritmo de conversão é capaz de treinar em tempo recorde um descodificador existente no cérebro de outra pessoa.
Como detalha a Live Science, esse descodificador cerebral utiliza a aprendizagem automática para traduzir os pensamentos de uma pessoa em texto, com base nas respostas do seu cérebro às histórias que ouviu.
Menos eficaz era o descodificador anterior, que exigia que os participantes ouvissem histórias dentro de uma máquina de ressonância magnética durante muitas horas. Além disso, funcionava apenas para os indivíduos em que haviam sido treinados.
No novo estudo, o neurocientista computacional da UT Austin Alexander Huth e o coautor Jerry Tang, um estudante de pós-graduação, investigaram a forma de ultrapassar esta limitação.
Os investigadores treinaram o descodificador do cérebro de alguns participantes de referência, recolhendo dados de ressonância magnética funcional enquanto ouviam 10 horas de histórias no rádio. Depois, treinaram dois algoritmos de conversão nos participantes de referência e noutro conjunto de participantes: uns passaram 70 minutos a ouvir histórias de rádio; outros passaram 70 minutos a ver curtas-metragens não relacionadas com as histórias de rádio.
Utilizando uma técnica chamada alinhamento funcional, a equipa mapeou a forma como os cérebros dos participantes de referência e de objetivo respondiam às mesmas histórias áudio ou filmes.
A Live Science cita uma história de teste incluía alguém a falar de um emprego de que não gostava, dizendo “Sou empregada de mesa numa gelataria. Não sei onde quero estar, mas sei que não é aqui”.
O descodificador, utilizando o algoritmo do conversor treinado em dados de filmes, previu: “Eu estava num emprego que achava aborrecido. Tinha de receber ordens e não gostava delas, por isso trabalhava nelas todos os dias”.
Apesar de não ser uma correspondência exacta (uma vez que o descodificador não lê os sons exactos que as pessoas ouviram), as ideias estão relacionadas.
“O que é realmente surpreendente e fixe é que podemos fazer isto mesmo sem utilizar dados linguísticos”, disse Alexander Huth à Live Science.
“Assim, podemos ter dados que recolhemos apenas enquanto alguém está a ver vídeos silenciosos e depois podemos usá-los para construir este descodificador de linguagem para o seu cérebro”, enalteceu.