União Europeia debate um projeto de lei para balizar o uso de IA no bloco. Um dos desafios é o tempo: quanto mais a aprovação demora, mais rápido a tecnologia avança.A União Europeia (UE) está em meio a um processo para regulamentar pela primeira vez no bloco o uso da inteligência artificial (IA). O projeto de lei será discutido nesta quarta-feira (14/06) no Parlamento Europeu, em Estrasburgo, na França.

Durante visitas no mês passado a países europeus, entre eles a Alemanha, Sam Altman, diretor da empresa americana OpenAI, responsável pelo gerador de textos ChatGPT, alertou sobre possíveis excessos na regulamentação – ainda que tenha retirado a ameaça de não operar mais o sistema na UE.

+Mercados financeiros resistirão à inteligência artificial?

De acordo com Altman, em princípio, regras para a IA são válidas, mas “precisamos de clareza”. Influente no cenário tecnológico, ele foi recebido por líderes como o chanceler federal alemão, Olaf Scholz, e o presidente da França, Emmanuel Macron.

Sem proibições, mas com padrões europeus

O eurodeputado alemão René Repasi parece estar tranquilo em relação a ameaças de serviços de IA de deixarem de operar na UE. O motivo é o fato de o mercado europeu ser muito atrativo para ser simplesmente ignorado por essas empresas. “Quem quiser vender sua IA aqui [na Europa] tem que estar em conformidade com nossos padrões”, diz o político, que representa os social-democratas em relação ao tema no Parlamento Europeu.

Repasi é membro do SPD, o Partido Social-Democrata da Alemanha, e integra a Aliança Progressista de Socialistas e Progressistas no Parlamento Europeu. Ele afirma que discute o tema com deputados americanos, uma vez que o Congresso dos EUA também busca aprovar regras para a IA.

“No fim das contas, queremos criar padrões relevantes e não competir uns com os outros”, argumenta.

As empresas americanas de tecnologia têm muito capital, grandes quantidades de dados e uma hegemonia que buscam defender. Isso não significa, diz Repasi, que as regras na Europa impediriam que startups incipientes pudessem desenvolver ainda mais a IA no continente.

“O fato de tantas gigantes da tecnologia estarem sediadas nos EUA tem um pouco mais a ver com falhas de mercado, nos quais monopolistas seguem em atividade, do que com a questão de onde está a maior inovação”, afirma.

Alertas sobre a IA

Um dos pais da IA, o ex-funcionário do Google Geoffrey Hinton, alertou em entrevistas recentes sobre os perigos da sua própria criação, e disse que a IA generativa poderá, em breve, ser mais inteligente do que as pessoas que a desenvolveram.

Mudanças no mercado de trabalho são ainda imprevisíveis. Até mesmo os os criadores de sistemas e chefes da Microsoft ou da Google admitem que eles próprios não sabem mais exatamente como os aplicativos de IA funcionam.

Em uma carta aberta, pesquisadores e empresários, entre eles o dono do Twitter, Elon Musk, propuseram uma pausa até o final deste ano a fim de estabelecer limites para o desenvolvimento da IA.

A UE vem há dois anos debatendo uma nova lei sobre o tema. A ideia é que o uso da IA seja organizado por categorias de risco. Sistemas que analisam e preveem o comportamento social de seres humanos são considerados de alto risco e portanto inaceitáveis, e devem ser banidos.

Os sistemas que geram algum risco devem estar sujeitos a regras e limites. E aplicativos considerados simples, a exemplo de um gerador de textos como o ChatGPT, não tendem a sofrer grandes restrições. Mas todos os serviços gerados por IA devem ser identificados como tal.

Como exemplo, Repasi menciona um pedido de empréstimo, que já é frequentemente verificado por máquinas: “Se o resultado for negativo, queremos que as pessoas possam exigir que um ser humano verifique. Mas é preciso estar consciente de que se conversou com uma [ferramenta de] IA antes”.

Lei em dois anos

A lei europeia de IA deve entrar em vigor no início de 2025, pois precisa de aprovação não apenas do Parlamento Europeu, mas também de todos os 27 países-membros da UE.

Há dois anos, quando a regulamentação começou a ser debatida na Europa, ferramentas como o ChatGPT – lançado no fim de 2022 – não estavam no mercado. Por isso, quando a lei entrar em vigor, os aplicativos podem estar ainda mais avançados, argumenta o também eurodeputado alemão Alex Voss.

“O desenvolvimento é, de fato, tão rápido que grande parte dele não caberá mais no tempo [correto] quando a lei realmente entrar em vigor”, disse ele à DW em abril.

Voss atua há anos na área de IA para a bancada dos Democratas Cristãos e é um dos principais autores do projeto de lei. E adverte, neste caso, contra proibições rígidas.

“Na verdade, precisamos, por razões competitivas e porque já estamos ficando para trás, de um espírito mais otimista para lidar mais intensamente com a IA. Mas o que está acontecendo por parte da maioria do Parlamento Europeu é que [os parlamentares] estão se deixando guiar por medos e preocupações e tentando descartar tudo”, afirma.

Representantes da área de proteção de dados dos países da UE, por exemplo, pedem uma fiscalização independente dos aplicativos de IA, além de mais ajustes na lei de proteção de dados.

Na opinião de Repasi, a lei de IA deve ser flexível. A questão se um aplicativo é de alto ou de baixo risco não deve estar no texto principal da lei, mas sim em anexos, o que facilitaria mudanças e adaptações rápidas frente aos desenvolvimentos tecnológicos.

IA e confiança

As empresas que quiserem comercializar aplicativos de IA considerados de risco na Europa terão que atender a critérios rígidos, de acordo com o projeto de lei, e estabelecer um gerenciamento de risco para seus produtos.

Dados usados para treinar programas de IA também precisarão ser verificados. E pessoas que fornecerem dados deverão ser informadas sobre a finalidade do uso desses dados.

Na Itália, as autoridades da área de proteção de dados baniram o ChatGPT temporariamente, em março deste ano, devido a falhas na proteção de dados, e só autorizaram novamente o uso depois que a OpenAI colocou algumas mudanças em prática.

As Agências de Inspeção Técnica da Alemanha (TÜVs), o Departamento Federal de Segurança da Informação e o Instituto Fraunhofer de Análise Inteligente e de Sistemas de Informação defendem a introdução de um certificado para os aplicativos de IA.

Da mesma forma que um automóvel precisa passar pelo crivo das TÜVs, a IA também teria que ser tecnicamente certificada por inspetores independentes. O uso de um carro autônomo ou de robôs que atuam em cirurgias exigem grande confiança na IA – o que, para esses centros alemães, seria possível somente por meio de uma certificação.