19/03/2025 - 15:05
No mundo tecnológico atual, têm surgido soluções para combater as deepfakes, como são conhecidos os vídeos falsos ou vozes artificiais que a inteligência artificial (IA) generativa disseminou entre os usuários, com o objetivo de evitar todo tipo de fraude.
“Sou eu (…) Sofri um acidente”. Do outro lado da linha, Laurel escuta a voz de sua mãe, Debby Bodkin, que lhe explica que está hospitalizada. A jovem tem o ímpeto de desligar e ligar para a mãe, que, na realidade, está em seu escritório, segura.
Felizmente, Laurel estava na casa da avó, Ruthy, de 93 anos, quando entrou a chamada com a qual supostamente tentavam aplicar um golpe na idosa.
“Há tentativas todos os dias”, disse Debby, que mora no estado da Califórnia, no oeste dos Estados Unidos, à AFP. “A IA pode ser muito perigosa”, disse ela.
Popularizados nas redes sociais através do uso com celebridades, e às vezes com fins de desinformação, os deepfakes também são explorados pelo crime organizado.
No início de fevereiro, a polícia de Hong Kong revelou que o funcionário de uma multinacional havia sido convencido a transferir 25 milhões de dólares (141,6 milhões de reais na cotação atual) a fraudadores que organizaram uma videoconferência com avatares realistas de inteligência artificial de vários de seus colegas.
Um estudo publicado em fevereiro pela startup iBoom, especializada em identificação, mostra que somente 0,1% dos americanos e britânicos examinados foram capazes de identificar corretamente uma imagem ou vídeo falsos.
Há menos de uma década, “só havia uma ferramenta” para gerar voz por IA, chamada Lyrebird, explicou Vijay Balasubramaniyan, diretor da Pindrop Securiy, especialista em autenticação de vozes. “Hoje são 490”, ressaltou.
A chegada da IA generativa mudou as regras do jogo.
“Antes, precisavam de 20 horas (de gravação) para recriar sua voz. Hoje, são só cinco segundos”, explicou o executivo.
Vários provedores de serviços de informática oferecem a empresas a possibilidade de detectar falsificadores de IA em tempo real, seja em áudio ou vídeo, como são os casos da Reality Defender ou da Intel.
Esta última utiliza para o reconhecimento as mudanças na cor dos vasos sanguíneos faciais (fotopletismografia) em sua ferramenta FakeCatcher, enquanto o Pindrop divide cada segundo de áudio em 8.000 fragmentos e os compara com as características de uma voz humana real.
“É como em qualquer empresa de cibersegurança: tem que se manter atualizada”, afirmou Nicos Vekiarides, diretor-executivo da empresa Attestiv. Ele apontou que no início, as imagens de IA podiam ter pessoas com seis dedos, mas com o avanço da tecnologia, é cada vez mais difícil distingui-las a olho nu.
– Como o spam –
Algumas publicações científicas já puseram em perspectiva a eficácia desses sistemas de detecção, mas vários estudos acadêmicos também destacaram as altas taxas de identificação.
Para Vijay Balasubramaniyan, em algum momento, todas as empresas vão precisar se equipar com software de identificação de conteúdo de IA.
Além dos setores financeiro e de seguros, tradicionalmente vítimas de fraude, “isso está se tornando uma ameaça global à segurança cibernética”, alertou Nicos Vekiarides.
Segundo ele, “qualquer empresa pode ter sua reputação manchada por um deepfake ou ser alvo desses ataques sofisticados”.
E para Balasubramaniyan, o aumento do trabalho remoto aumenta ainda mais os riscos de roubo de identidade.
E o espectro pode se estender ao público em geral, sob a ameaça de ligações manipuladas, especialmente voltadas para os idosos.
Em janeiro, a fabricante chinesa Honor apresentou seu novo smartphone, o Magic7, capaz de detectar e informar, em tempo real, se a outra parte está usando IA durante uma chamada de vídeo.
No final de 2024, a startup britânica Surf Security lançou um navegador de internet, por enquanto destinado apenas a empresas, capaz de alertar os usuários quando uma voz ou um vídeo tiver sido gerado por meio de IA.