21/05/2025 - 14:33
Com o uso amplo e massivo de Inteligência Artificial (IA), ficou mais difícil conter a situação e fazer com que as pessoas usassem as ferramentas com responsabilidade. Além disso, existem poucas perspectivas de a IA não ter vieses e preconceitos.
+Candidato a emprego descobre que entrevistadora era IA e viraliza com vídeo da ‘decepção’
A tese é de Kay Firth-Butterfield, CEO da Good Tech Advisory e uma das principais especialistas mundiais em governança e ética da inteligência artificial. Ela participou do Interconnected Brasil 2025, evento da empresa japonesa de serviços de tecnologia e consultoria NTT DATA que ocorre em São Paulo nesta quarta-feira, 21.
Em entrevista à IstoÉ Dinheiro, Kay conta que o fato de os modelos de linguagem (LLMs, na sigla em inglês) beberem de fontes enviesadas fazem com naturalmente as ferramentas de IA também o sejam.
“Na minha visão é difícil ver como o algoritmo não poderá sempre carregar vieses e preconceitos, simplesmente por causa da maneira como os modelos de linguagem são treinados. Se continuarem a ser treinados só com dados que estão na internet – que são dados tendenciosos – eles [sistemas de IA] continuarão a ser enviesados e teremos que continuar pensando nesses problemas.”
A especialista ainda relata que os casos de uso não responsável de IA podem ter impactos sociais e indiretos no futuro. Como exemplo, relata que um dos casos que mais lhe chamou atenção está atrelado ao déficit no ensino superior gerado pelo uso de Inteligência Artificial como uma muleta por alunos.
“Algo que chamou minha atenção aconteceu logo na semana passada, que foi uma reportagem da revista New Yorker que relatou que jovens estavam saindo da faculdade analfabetos em suas próprias áreas, e a razão pela qual isso estava ocorrendo era que é que eles realmente estavam usando um chatbot para fazer seus trabalhos de pesquisa e escrever artigos”, conta.
“Então eles não estava realmente aprendendo sobre seus campos do conhecimento, não tinham pensamento crítico”, conclui.
Dessa forma, a especialista aponta que isso levanta questionamentos sobre se essas pessoas serão capazes de integrar o mercado de trabalho no futuro – especialmente pensando no mercado de trabalho como conhecemos hoje, em que IA ainda é relativamente uma novidade.
Por fim, Kay endossa a tese de que a adesão de IA deve reforçar os traços mais ‘humanos’ dos profissionais.
“Acho que temos de olhar para criatividade, há algo em nós humanos que é único e nos permite criar coisas que são exclusivamente para humanos e falar exclusivamente com humanos”, comenta.
‘Inteligência artificial não é sua parceira’
Durante seu painel no Interconnected Brasil 2025, Kay frisou que Inteligência artificial não é ‘parceira dos humanos’, mas sim um algoritmo, algo matemático e frio. Dessa forma, o mundo deve olhar para isso e repensar quais trabalhos e quais tarefas realmente valem a pena – e são seguros – de serem deixados nas mãos da IA.
Sobre a adesão atual no mundo corporativo, destacou que ‘comprar a IA errada vai se o problema de muitas empresas’, já que muitos executivos e empresários querem ‘apenas entrar na onda’ mas não estão fazendo isso de forma responsável.
“Ter diretrizes é muito importante quando pensamos no uso de IA nas empresas. Usei a palavra ética no início do meu trabalho, mas dependendo do país a ética pode variar, então começamos a usar a palavra responsabilidade”, explica.
“Alguns de vocês vão comprar em vez de criar uma Inteligência Artificial, e vocês precisam realmente conhecê-la. É necessário recorrer a consultorias, buscar ajuda, verificar o uso dos funcionários, ter conselhos consultivos internos e externos. Essa é a parte realmente crítica”, completa.