Os modelos de inteligência artificial (IA) como o ChatGPT da OpenAI estão a avançar rapidamente, levando os investigadores a ponderar se a IA poderá em breve ultrapassar as capacidades humanas.
No entanto, de acordo com Paul Christiano, antigo responsável pelo alinhamento de modelos linguísticos na equipa de segurança da OpenAI, esse futuro é uma possibilidade distinta, mas há também uma hipótese não nula de que a IA de nível humano ou sobrehumano possa assumir o controlo da humanidade e até aniquilá-la.
Numa entrevista ao podcast Bankless, dedicado a tecnologia, Christiano afirmou que há uma probabilidade de 10 a 20% de a IA assumir o controlo da humanidade, com a morte de muitos ou da maioria dos seres humanos.
Christiano deixou a OpenAI para se concentrar em questões teóricas no alinhamento da IA, um subcampo da investigação sobre segurança da IA que se concentra em garantir que os sistemas de IA estão alinhados com os interesses humanos e os princípios éticos.
Atualmente, dirige o Alignment Research Center, uma organização sem fins lucrativos que trabalha em estratégias teóricas de alinhamento da IA. Enquanto as empresas correm para lançar modelos de IA cada vez mais sofisticados, especialistas como Christiano alertam para o risco de avançar demasiado depressa.
Elon Musk, um cofundador da OpenAI que cortou relações com a empresa em 2018, foi um dos 1.100 peritos que assinaram uma carta aberta em março a pedir uma pausa de seis meses no desenvolvimento de modelos avançados de IA mais poderosos do que o GPT-4, uma atualização para o modelo de IA que alimenta o ChatGPT.
Uma das preocupações da carta era que os modelos de IA existentes poderiam estar a abrir caminho para modelos superinteligentes que representam uma ameaça para a civilização.
Embora os atuais sistemas de IA generativa, como o ChatGPT, consigam lidar com tarefas específicas, ainda estão longe de atingir os níveis de inteligência humana, uma hipotética iteração futura de IA conhecida como inteligência geral artificial (IGA).
Os especialistas têm-se dividido quanto à cronologia do desenvolvimento da IGA, com alguns a argumentar que poderá demorar décadas e outros a dizer que poderá nunca ser possível.
Christiano alertou para o facto de a civilização poder estar em risco se a IA se desenvolver ao ponto de a sociedade já não poder funcionar sem ela, deixando a humanidade vulnerável se uma IA poderosa decidir que já não precisa de agir no interesse dos seus criadores.
Outros especialistas alertaram para o facto de que, mesmo que as versões mais poderosas da IA sejam desenvolvidas para serem neutras, podem rapidamente tornar-se perigosas se forem utilizadas por humanos mal intencionados.
Em resposta às recentes advertências sobre a IA, alguns especialistas argumentaram que o desenvolvimento de uma IGA capaz de igualar a inteligência humana poderá nunca se tornar tecnicamente viável devido às limitações dos computadores no que respeita à interpretação das experiências de vida.
O empresário e cientista informático Perry Metzger argumentou num tweet no mês passado que, embora a IA “profundamente sobrehumana” seja uma probabilidade, provavelmente levará anos até que represente um risco para a civilização humana.