Modelo de Inteligência Artificial superou três fases do Medical Licensing Exam. E esteve “confortável”.
Eis mais uma notícia relacionada com o novo amigo de muita gente. E provavelmente do novo vício de muita gente: o ChatGPT.
O modelo de linguagem de Inteligência Artificial, desenvolvido pela empresa OpenAI, consegue gerar respostas humanas a perguntas e comandos de forma quase indistinguível de um ser humano.
As respostas são tão reais que consegue superar testes tal como se fossem humanos a realizar esses testes. Ou melhor, até consegue apresentar resultados melhores do que alguns humanos.
Foi o que conseguiu num estudo realizado nos Estados Unidos da América.
Os investigadores colocaram à prova o modelo de Inteligência Artificial, nas três fases do Medical Licensing Exam – o exame necessário para se ser médico.
O portal Axios anuncia que o ChatGPT foi capaz de passar nos exames. Mostrou “precisão moderada” e esteve “confortavelmente dentro do intervalo de aprovação”.
O ChatGPT apresentou “um elevado nível de concordância e discernimento nas suas explicações”, apesar de apresentar algumas respostas “indeterminadas” – os investigadores nem sabem se estavam certas ou erradas, eram muito gerais.
O estudo ainda vai ser revisto pelos pares mas assim mostra-se, novamente, que estes modelos de linguagem têm potencial para ajudar na educação médica, e possivelmente, na tomada de decisões clínicas.
Por isso, o Axios anuncia: “Aí vêm os médicos robôs”.
Bla bla bla… E punhetas bate?