Investigadores acreditam que a Inteligência Artificial poderá fazer o mesmo trabalho dos jornalistas, só que mais rapidamente, com mais precisão e numa escala muito maior.
O filme “Spotlight”, de 2015, retrata a história de uma equipa de jornalistas do The Boston Globe que investigou padres da Igreja Católica que abusaram sexualmente de menores. Esta é uma história verídica que aconteceu no início da década de 2000.
Mas e se acontecesse nos dias de hoje? Os investigadores acreditam que, atualmente, a Inteligência Artificial poderia fazer o mesmo trabalho dos jornalistas, só que mais rapidamente, com mais precisão e numa escala muito maior.
Neste caso, os jornalistas analisaram pistas e segredos dos sacerdotes que, de forma repentina, se mudavam ou apresentavam licenças médicas. A pensar nisso, a equipa de Joelle Casteix criou uma Inteligência Artificial que procura por padrões de comportamento semelhante em milhares de documentos de grandes organizações.
Casteix faz parte da Zero Abuse Project, uma organização sem fins lucrativos que tem como objetivo evitar o abuso infantil. A IA criada pelo grupo foi divulgada pela primeira vez, na semana passada, no Good Global Summit em Genebra, na Suíça.
A responsável pelo projeto contou, inclusive, que ela própria foi vítima de abusos sexuais por parte de um professor e o caso foi encoberto. “Esta é a primeira vez que há uma maneira proativa de interromper este ciclo”, acrescenta.
A iniciativa, intitulada de Projeto G, visa estudar documentos digitais e seguir o rasto a documentos em papéis legíveis, utilizando a tecnologia de IA para analisar as informações.
Dependendo da organização, os arquivos podem incluir detalhes relativamente às funções das pessoas ao longo do tempo e também recortes dos jornais onde são mencionados. O sistema vai então recolhendo as informações e aprendendo a conhecer mais a pessoa, destacando pontos invulgares da sua trajetória.
O sistema também poderia investigar mais a fundo, tentando verificar se o indivíduo pode estar envolvido em qualquer caso que tenha sido encoberto. Para Casteix, é importante que isso seja atacado e encerrado, pois mesmo que o suspeito seja detido, entrará num padrão e os seus crimes poderão ser encobertos novamente.
Esta opinião é corroborada por Lorraine Radford, da Universidade de Central Lancashire, no Reino Unido. Para a investigadora, “os infratores são pessoas muito manipuladoras, isto é, não manipulam apenas a vítima, mas também as pessoas à sua volta”.
Ainda assim, o projeto pode ser capaz de detetar alguns tipos de agressores, especialmente os que deixam transparecer mais o seu comportamento suspeito.
Sobre a possibilidade de a Inteligência Artificial poder vir a incriminar alguém inocente, Casteix revela que, para evitar essas situações, o software só será usado para complementar o trabalho já feito pela Zero Abuse Project, uma vez que é “preciso acompanhar o treino, a transparência e o trabalho com a aplicação da lei”.
Apesar de o software ainda estar em desenvolvimento, a equipa já incluiu documentos sobre pedófilos conhecidos e observou a Inteligência Artificial a avaliar os perfis.
O sistema também investigou algumas pessoas suspeitas, com base em pesquisas externas, e que ainda não foram expostas publicamente. O grupo ainda espera que outras organizações se interessem pela ferramenta para ajudar a erradicar o abuso infantil.
ZAP // CanalTech / New Scientist
Claro que pode, rabiscar umas coisas no papel a mando do patrão, qualquer um faz. Até uma maquineta.