A OpenAi confirmou nesta sexta-feira (17) que dissolveu uma equipe dedicada a reduzir os riscos a longo prazo da inteligência artificial (IA), no momento em que a empresa que desenvolveu o ChatGPT enfrenta um número crescente de críticas.

Semanas atrás, teve início a dissolução do chamado grupo de “superalinhamento”, com a transferência de seus membros para outros projetos e pesquisas, informou a empresa, com sede em San Francisco.

Mais cedo, o diretor dessa equipe responsável pela segurança, Jan Leike, explicou na rede social X que renunciou devido a divergências fundamentais com a alta direção sobre as prioridades da empresa, em um dilema entre inovação e segurança.

“Chegamos a um ponto de ruptura”, disse o engenheiro encarregado do grupo responsável pelo superalinhamento, ou seja, garantir que uma futura “IA geral”, aquela que consiga ser tão inteligente quanto o homem, esteja alinhada com os valores da sociedade.

Sam Altman, cofundador e CEO da empresa, expressou tristeza com a saída de Leike. “Tem razão, ainda nos resta muito a fazer (pela pesquisa sobre alinhamento e segurança) e estamos decididos a fazê-lo”, disse.

A equipe de superalinhamento também era dirigida por Ilya Sutskever, cofundador da OpenAI, que anunciou sua saída na última terça-feira.

Com o ChatGPT, a OpenAI lançou a revolução da IA generativa, capaz de produzir conteúdo a partir de um simples pedido em linguagem cotidiana, que gerou entusiasmo no Vale do Silício, mas que, por outro lado, preocupa muitos analistas e reguladores por sua segurança e o uso de dados, desde os Estados Unidos até a Europa.

A OpenAI apresentou nesta semana uma nova versão desse “chatbot”, que agora pode manter conversas orais fluidas com seus usuários, um passo a mais para assistentes de IA cada vez mais pessoais e potentes.