Modelo de inteligência artificial conseguiu acertar em mais de 60% dos casos durante teste psicológico. Será que ele pode fazer o mesmo na vida real?A inteligência artificial (IA) na forma de modelos de linguagem parece ser capaz de descrever cada vez melhor o comportamento humano. Mas será que esses modelos de IA também são capazes de prever decisões humanas? Uma equipe internacional de pesquisa do Institute for Human-Centered AI do Centro Helmholtz de Munique quis descobrir e desenvolveu o novo modelo de linguagem Centaur.

A equipe usou como base um modelo de linguagem de código aberto da empresa Meta AI. Em seguida, os pesquisadores programaram a IA do Centaur com dados de 160 experimentos psicológicos. Neles, cerca de 60 mil pessoas tiveram que realizar determinadas a tarefas. Por exemplo, elas foram solicitadas a categorizar objetos ou a tomar decisões sobre jogos de azar.

Dez milhões de decisões como treinamento

No total, o conjunto de dados do Centaur compreende mais de 10 milhões de decisões. A IA foi treinada com 90% dos dados dos resultados. Os resultados dos 10% restantes permaneceram desconhecidos para ela. Os pesquisadores então usaram esses dados para testar seu novo modelo de linguagem: será que o Centaur seria capaz de prever o comportamento das pessoas que realizaram os testes?

O resultado: o modelo de IA foi capaz de prever as decisões tomadas com uma precisão de até 64% em alguns casos. O Cenatur também apresentou bons resultados quando a configuração do teste foi ligeiramente alterada, em outras palavras, quando foi solicitado a fazer previsões sobre situações para as quais não havia sido especificamente treinado.

“Empresas usam IA para prever nossas preferências”

A novidade do Centaur é que a IA pode ser aplicada a “dados comportamentais”, diz Clemens Stachl, diretor do Instituto de Ciência e Tecnologia Comportamental da Universidade de St. Gallen. “Isso foi alcançado com a tradução dos resultados de experimentos clássicos sobre tomada de decisões para a linguagem.”

Modelos de IA como o Centaur também poderiam ser usados além das ciências sociais e comportamentais, diz Stachl. “Por exemplo, onde quer que o comportamento humano precise ser analisado e previsto, como em compras, educação ou no setor militar”, afirma.

O cientista comportamental considera que uma aplicação prática é óbvia, pois esse tipo de modelo de IA foi desenvolvido pela indústria. O Centaur também usa a arquitetura básica do Google e a base pré-treinada da Meta.

“Podemos supor que as grandes empresas de tecnologia já estejam usando modelos semelhantes para prever nosso comportamento e nossas preferências de tomada de decisão, por exemplo, ao fazermos compras online ou usarmos as mídias sociais.”

Stachl cita como exemplos o modelo de linguagem ChatGPT e a plataforma de mídia social Tiktok. “Esses modelos agora são muito bons – pense, por exemplo, em como o Tiktok sugere vídeos para manter os usuários no aplicativo pelo maior tempo possível.”

IA deveria mesmo ser capaz de interpretar comportamento humano?

O modelo Centaur e os resultados do estudo devem ser vistos principalmente como uma contribuição para a pesquisa básica, diz o cientista comportamental Stachl. Modelos desse tipo poderiam, em princípio, ajudar a resolver problemas sociais complexos, por exemplo, no setor de saúde.

“Ao mesmo tempo, porém, há o risco de que eles nos tornem cada vez mais previsíveis e levem a uma forma de dependência digital ou até mesmo à ‘escravidão digital’.” Nosso consumo diário de mídia e o uso de tecnologias digitais produzem novos dados comportamentais todos os dias, o que contribui para o aprimoramento desses modelos, segundo Stachl.

Para o cientista comportamental, lidar com essa tecnologia é uma questão que “nossa sociedade como um todo deve responder. No futuro, não só a ciência, mas também juristas e tomadores de decisões políticas em particular, serão chamados a dar mais atenção a essa questão.”