Modelo de linguagem vai tratar de pedidos com imagens e discutir oralmente – mas não é para todos.
A OpenAI informou na segunda-feira que tinha dotado o seu programa de inteligência artificial (IA) ChatGPT de capacidade de falar e ver para a tornar “mais intuitiva”.
A interface que popularizou a IA generativa — isto é, capaz de produzir texto, imagem e outros conteúdos a pedido — vai assim, em breve, poder tratar pedidos com imagens e também discutir oralmente com os seus utilizadores.
Em comunicado, a OpenAi dá o exemplo de um utilizador que fotografa um monumento e que depois “tem uma conversa com o ChatGPT” sobre a história da construção ou que mostra ao programa o interior do seu frigorífico para que lhe proponha uma receita.
Outros exemplos de usos possíveis, ainda segundo a empresa, são os de ajudar as crianças com os exercícios escolares, por exemplo, através do envio de uma foto de um problema de matemática, ou pedir ao chatbot que conte às crianças uma história antes de adormecerem.
Estes novos instrumentos vão ser desenvolvidos nas duas próximas semanas para os assinantes do ChatGPT Plus, que é a versão paga do chatbot, e as organizações clientes do serviço.
A empresa anunciou em março estas funcionalidades, ao apresentar o GPT-4, a versão mais recente do seu modelo de linguagem, que sustenta o chatGPT.
O GPT-4 é multimédia, no sentido em que pode tratar de informação, além de texto ou códigos informáticos.
O sucesso do ChatGPT desde o final de 2022 desencadeou uma corrida à IA generativa pelos conglomerados das tecnologias, desde logo Google e Microsoft.
Mas o desenvolvimento acelerado destes programas, ainda muito pouco regulados, suscita muitas inquietações, tanto mais que têm tendência a “alucinar“, isto é, a inventar respostas.
Os modelos dotados de visão colocam novos desafios, alucinações, por as pessoas se poderem basear na interpretação das imagens pelo programa em domínios com consequências pesadas” das decisões tomadas, admitiu OpenAI, no seu comunicado.
A empresa garantiu ter “testado o modelo” em temas como o extremismo e os conhecimentos científicos, mas adiantou que conta com os usos na vida real e os comentários dos utilizadores para o melhorar.
Por outro lado, limitou as capacidades da ChatGPT para “analisar as pessoas“, uma vez que a interface “nem sempre é exata e estes sistemas devem respeitar a confidencialidade dos indivíduos”.
// Lusa