11/07/2024 - 10:01
Estado Islâmico, Al Qaeda e outras organizações extremistas estão recorrendo à inteligência artificial para recrutar mais integrantes. Qual o real perigo desse tipo de uso da tecnologia?Um vídeo mostra um trecho de Family Guy – um dos programas de desenho animado cômicos mais conhecidos do mundo –, no qual o protagonista Peter Griffin dirige uma van por uma ponte com uma bomba sob a mira de uma arma.
A imagem é parte do episódio “Turban Cowboy”, que foi ao ar em 2013. No entanto, o áudio que acompanha o vídeo foi alterado, pois Peter Griffin, normalmente dublado pelo criador do programa, Seth MacFarlane, canta uma letra diferente.
“Nossas armas são pesadas, nossas fileiras são muitas, mas os soldados de Alá estão mais do que prontos”, ele balbucia na música, com seu sotaque característico do estado americano de Rhode Island, para incentivar seguidores do grupo terrorista Estado Islâmico (EI).
A animação obviamente não é a mais recente música satírica de MacFarlane, mas apenas uma ilustração de como os grupos extremistas usam a computação avançada ou a inteligência artificial (IA) para criar conteúdo para seus seguidores.
O termo IA abrange uma ampla gama de tecnologias digitais e pode significar qualquer coisa, desde o processamento mais rápido de grandes quantidades de dados digitais para análise até o que é conhecido como “IA generativa”, que “gera” novos textos ou imagens com base em grandes quantidades de dados. Foi assim que essa música de Peter Griffin foi criada.
“A rápida democratização da tecnologia de IA generativa nos últimos anos (…) está tendo um impacto profundo na forma como as organizações extremistas se envolvem em operações de influência on-line”, escreve Daniel Siegel, um pesquisador dos Estados Unidos que analisou como a IA é usada para fins maliciosos. Em um artigo para a Rede Global de Extremismo e Tecnologia, ele destacou o vídeo de Peter Griffin.
Aumenta número de extremistas usando IA
No ano passado, observadores de várias organizações de monitoramento de extremistas relataram como o EI e outros grupos extremistas estão incentivando seus seguidores a usar novas ferramentas digitais.
Em fevereiro, um grupo afiliado à Al Qaeda anunciou que começaria a realizar workshops de IA on-line, informou o jornal The Washington Post. Posteriormente, o mesmo grupo lançou um guia sobre o uso de chatbots de IA.
Em março, depois que um braço do EI matou mais de 135 pessoas em um ataque terrorista em um teatro de Moscou, um dos seguidores do grupo criou uma reportagem de televisão falsa sobre o evento e a publicou quatro dias após o ataque.
No início deste mês, oficiais do Ministério do Interior da Espanha prenderam nove jovens em todo o país que estavam compartilhando propaganda celebrando o EI, incluindo um homem descrito como focado em “conteúdo multimídia extremista, usando aplicativos de edição especializados apoiados por inteligência artificial”.
“O que sabemos sobre o uso de IA hoje é que ela funciona como um complemento à propaganda oficial da Al Qaeda e do EI”, diz Moustafa Ayad, diretor executivo para a África, Oriente Médio e Ásia do Instituto para o Diálogo Estratégico (ISD), com sede em Londres, que investiga o extremismo de todos os tipos.
“Ele permite que apoiadores e grupos de apoio não oficiais criem conteúdo emotivo usado especificamente para galvanizar a base de apoiadores em torno do conceito central.”
Ele acrescentou que a aparência do conteúdo significa que ele também pode não ser captado por moderadores de conteúdo de redes sociais populares. Na verdade, Ayad disse à DW que até mesmo o conteúdo mais ridículo e irrealista do EI costuma ser novidade suficiente para que os seguidores o compartilhem entre si.
Extremistas são pioneiros no uso de IA para propaganda
Nada disso é surpreendente para os observadores de longa data do Estado Islâmico. Quando o grupo extremista ganhou destaque pela primeira vez, por volta de 2014, já fazia vídeos de propaganda com produção cara para intimidar os inimigos e recrutar seguidores.
“Tudo isso demonstra algo que a ISD tem observado continuamente”, observou Ayad. “Os grupos terroristas e seus apoiadores continuam a ser os primeiros a adotar a tecnologia para atender a seus interesses.”
Mas até que ponto esse tipo de conteúdo é realmente perigoso? Afinal, a reportagem falsa sobre o ataque em Moscou parece falsa, e a música de Peter Griffin não está fazendo mal a ninguém. Ou será que está?
Os grupos de monitoramento listaram uma variedade de maneiras pelas quais os grupos extremistas poderiam tirar proveito da IA. Além da propaganda, eles também poderiam usar chatbots de grandes modelos de linguagem, como o ChatGPT, para conversar com novos recrutas em potencial, sugerem especialistas. Uma vez que o chatbot tenha despertado interesse, um recrutador humano pode assumir o controle, dizem eles.
Os modelos de IA, como o ChatGPT, também têm certas regras escritas em seus sistemas que os impedem de ajudar os usuários com coisas como escapar impune de um assassinato. No entanto, essas regras não se mostraram confiáveis no passado, e os possíveis terroristas podem ser capazes de contorná-las para obter informações perigosas.
Há também o temor de que os extremistas possam usar ferramentas de IA para realizar ataques digitais ou cibernéticos ou para ajudá-los a planejar ataques terroristas na vida real.
Falsificações profundas X bombas reais
Especialistas argumentam que, embora a IA tenha um potencial preocupante nas mãos de extremistas, a vida real é ainda mais perigosa.
Em um artigo publicado em 2019 na revista Perspectives on Terrorism, os pesquisadores examinaram a conexão entre a quantidade de propaganda que o grupo EI fez e seus ataques físicos reais. Não houve “nenhuma correlação forte e previsível”, concluíram.
“É semelhante à discussão que estávamos tendo sobre armas cibernéticas e bombas cibernéticas há cerca de dez anos”, diz Lilly Pijnenburg Muller, pesquisadora associada e especialista em segurança cibernética do Departamento de Estudos de Guerra do King’s College de Londres.
Não importa a IA, hoje até mesmo rumores e vídeos antigos podem ter um impacto desestabilizador e levar a uma enxurrada de desinformação nas redes sociais, disse ela à DW. “Os Estados têm bombas convencionais que podem ser lançadas, se essa for sua intenção.”
“Não sei se, neste momento, o uso de IA por organizações terroristas estrangeiras e seus apoiadores é mais perigoso do que sua propaganda muito real e gráfica envolvendo assassinatos desenfreados de civis e ataques às forças de segurança”, diz Ayad, da ISD.
“No momento, a maior ameaça é a desses grupos que realmente realizam ataques, inspiram agentes solitários ou recrutam com sucesso novos membros devido às suas respostas ao cenário geopolítico, ou seja, a guerra israelense em Gaza em resposta ao dia 7 de outubro”, continuou ele. “Eles estão usando as mortes de civis e as ações de Israel como um dispositivo retórico para o recrutamento e para a criação de campanhas.”