Dois veículos de comunicação de Israel acusaram o país de usar a inteligência artificial (IA) para identificar e atacar alvos na Faixa de Gaza, deixando um grande número de vítimas civis, o que levou nesta sexta-feira (5) o secretário-geral da ONU a manifestar preocupação.

“Estou profundamente preocupado com as denúncias de que a campanha de bombardeios do Exército israelense inclui a inteligência artificial como ferramenta para identificar alvos, particularmente em áreas residenciais densamente povoadas, o que provoca um alto número de vítimas civis”, disse António Guterres. “Nenhuma parte das decisões de vida ou morte que afetam famílias inteiras deve ser delegada ao cálculo frio dos algoritmos.”

A investigação, publicada pela +972 Magazine e Local Call e noticiada por veículos de comunicação americanos nesta semana, descreve a existência de um programa do Exército israelense denominado “Lavender” que usa inteligência artificial para identificar alvos em Gaza, com uma certa margem de erro.

Segundo os veículos independentes, que têm entre suas fontes seis “oficiais da inteligência israelenses”, o programa teve um papel central nas primeiras semanas de bombardeios israelenses na Faixa de Gaza. Os militares “trataram as produções da máquina de inteligência artificial como se fossem uma decisão humana”.

Segundo duas fontes citadas, o Exército também decidiu que, por cada “membro jovem” do Hamas detectado pelo Lavander, era “permitido” matar, como vítimas colaterais, 15 a 20 civis. A proporção aumentava para 100 civis para cada comandante do movimento islamita palestino.

“Diferentemente das acusações, o Exército de Israel não usa um sistema de inteligência artificial para identificar os operadores terroristas nem para tentar prever quem é terrorista”, respondeu hoje à AFP, admitindo apenas a existência de uma “base de dados”.

– ‘Apocalíptico’ –

“Alerto há anos para o risco de transformar a inteligência artificial em armas e reduzir o papel essencial da intervenção humana”, ressaltou Guterres. “A IA deve ser usada como uma força para o bem, em benefício do mundo, e não para contribuir para a guerra a nível industrial”, acrescentou.

Israel não esconde que trabalha com ferramentas de IA em seu Exército, que reivindica ter travado “a primeira guerra de IA” durante 11 dias em maio de 2021, na Faixa de Gaza. O então chefe de gabinete israelense, Aviv Kochavi, declarou no ano passado ao site de notícias Ynet que a IA havia permitido gerar “100 novos alvos por dia”, contra 50 por ano na Faixa de Gaza “no passado”.

Segundo um blog no site do Exército de Israel, mais de 12 mil alvos foram identificados em 27 dias usando uma tecnologia chamada Gospel. Um funcionário, que não foi identificado, informou que a ferramenta selecionava alvos “para ataques precisos a infraestrutura associada ao Hamas, infligindo danos significativos ao inimigo e causando o menor dano possível àqueles que não estavam envolvidos”.

Um ex-oficial da inteligência de Israel, que também não foi identificado, disse à revista +972 em novembro que a tecnologia estava se tornando “uma fábrica de assassinatos em massa”. Questionado pela AFP, Alessandro Accorsi, especialista da organização de resolução de conflitos Crisis Group, considerou a informação preocupante.

“Parece apocalíptico. Está claro que o grau de controle humano é muito baixo. Existem milhares de questões em torno disso, até que ponto é moral usá-la, mas não é de surpreender que seja usada”, comentou.

Para Johann Soufi, advogado internacional e ex-diretor do escritório jurídico da agencia da ONU para os refugiados palestinos (UNRWA) em Gaza, esses métodos “violam todos os princípios fundamentais do direito humanitário internacional”, incluindo a distinção entre combatentes e civis, a precaução e a proporcionalidade.

“Constituem, indiscutivelmente, crimes de guerra”, denunciou Soufi no X, mencionando a possibilidade de que se esteja diante de “crimes contra a humanidade” e uma “vontade de atacar de forma sistemática e generalizada a população civil de Gaza”.