Executivo brasileiro da companhia que entra para o grupo das que valem mais de US$ 1 trilhão fala sobre o futuro da tecnologia e acalma os assustados: robôs continuarão sendo robôs. Eficientes, óbvio

Cada dia a inteligência artificial (IA) tem causado mais frisson. O ChatGPT, da empresa OpenIA, com sua capacidade de apresentar soluções, tem ajudado nesse boom. Uma ferramenta tecnológica avançada que gera curiosidade, debates e muito dinheiro. Por causa dela, ou melhor, por causa do entusiasmo do mercado sobre ela, a americana Nvidia alcançou valuation de US$ 1 trilhão e entrou para um seleto grupo de empresas que bateram nesse valor.

Entre elas, as big techs Apple (US$ 2,9 trilhões), Microsoft (US$ 2,5 trilhões), Google/Alphabet (US$ 1,5 trilhão) e Amazon (US$ 1,3 trilhão). Mas a Nvidia se diferencia delas na forma.

Enquanto as gigantes são protagonistas e oferecem tecnologia na ponta do processo para seus clientes, a Nvidia trabalha no bastidor ao dispor capacidade de processamentos para essas big techs desenvolverem suas soluções.

Com tantos avanços da inteligência artificial em tão pouco tempo, a pergunta recorrente que se faz é: onde vamos parar? Para Márcio Aguiar, diretor de negócios da Nvidia na América Latina, não é para nós, simples mortais, nos assustarmos com os robôs. O controle ainda ficará na mão dos seres humanos.

DINHEIRO — Como a Nvidia chegou ao valuation de US$ 1 trilhão?
MARCIO AGUIAR — É um trabalho que vem sendo construído ao longo dos últimos 15 anos. Obviamente, no passado não imaginávamos chegar nesse US$ 1 trilhão, isso não foi cogitado por nós, apesar do zum-zum-zum do mercado. É um resultado muito satisfatório. Mostra que a gente esteve sempre no caminho certo, trilhando um passo de cada vez.

Muito se deve à explosão do ChatGPT. É uma revolução que não tem fim em termos de computação de desempenho. Hoje é preciso muito poder computacional, não só na questão física do hardware como também na otimização das plataformas de desenvolvimento, que permitem que as pessoas nas empresas desenvolvam os seus próprios sistemas de processamento, de modelos de linguagem bem pesada. Eu diria que dentro de um período de até um ano as máquinas vão estar muito mais inteligentes do que estão agora em relação à criação de conteúdos usando técnicas de inteligência artificial.

Que tipos de conteúdos você prevê que poderão ser criados?
Dos mais diversos. Assim como um ser humano pensa. Mas obviamente não é que a máquina vai substituir o humano. Tem de ter sempre o humano do outro lado validando e tomando decisões que são certas para nossa sociedade. As grandes empresas que são as provedoras de serviço na nuvem, como Amazon, Google, Microsoft, têm investido bastante nas suas próprias infraestruturas de processamento de linguagem natural. A Microsoft é uma das principais delas com a parceria e investimento que eles têm [na empresa OpenIA, do ChatGPT].

“Não imaginávamos chegar nesse US$ 1 trilhão. Muito se deve à explosão
do ChatGPT. É uma revolução que não tem fim em termos de computação

de desempenho”

Apesar de esse modelo estar sendo disseminado com mais ênfase agora, não começou recentemente.
Para processar esses modelos de linguagem natural é necessário um equipamento bem robusto. Não são múltiplos equipamentos, é um sistema com múltiplas GPUs [sigla para Graphics Processing Unit ou Unidade de Processamento Gráfico]. Quanto menos você distribuir esses dados para serem processados, mais acuracidade e melhor tempo de resposta vai ter. Em 2017, o primeiro cliente da Nvidia numa arquitetura com 8 GPUs foi o fundador do ChatGPT [Sam Altman]. O nosso CEO [Jensen Huang] viu o que ele estava tentando desenvolver, pois ele havia participado de algumas competições usando técnicas de inteligência artificial para reconhecimento de imagens, só que não tinha processamento. Trabalharam juntos para obter esse processamento. Com certeza a questão do hardware foi toda assinada por nós. E ele fundou a OpenIA, lançou o ChatGPT e deu um boom. No fim de 2022 a Microsoft anunciou o resultado das técnicas de linguagem natural com mais de 10 mil GPUs. Isso abriu o olho dos seus concorrentes e todos vieram atrás da Nvidia para poder investir nessa infraestrutura.

O criador do ChatGPT está à frente do seu tempo. Como a Nvidia faz para conseguir prover infraestrutura?
Em diversas indústrias estamos à frente porque, quando a empresa permitiu que os nossos processadores fossem programáveis, liberando que cientistas de dados pudessem desenvolver em cima da nossa plataforma, demos um grande salto. Mas ainda é pouco utilizado ou explorado pela comunidade científica, porque a gente estava trazendo um novo conceito, dessa questão da programação paralelizada. Nossas GPUs, que na época foram desenvolvidas para o mercado de game, estavam sendo utilizadas para o mercado de computação gráfica profissional. E a gente lançou uma plataforma de GPU para atender essa demanda. Depois vieram os cientistas de dados mais voltados a aplicações de física, de química, biologia, em que existia muito poder de matemática a ser processado. E lançamos uma nova GPU só para atender esse grupo de usuários. E desde 2015 a gente vem experimentando IA.

E qual vai ser a próxima onda?
Vai continuar sendo o aprofundamento das redes neurais para essas técnicas de processamento de linguagem natural, do ChatGPT4, por exemplo. O boom que a gente vive hoje do ChatGPT ainda é o 3.0, que foi lançado em 2020. Agora que existe o processamento todo mundo acordou. O pessoal tá começando a carregar os seus dados estruturados da melhor maneira possível e botar no supercomputador, na super-rede neural, para ser treinado.

Haverá outras consequências?
Sim. Isso também desperta vários outros pontos. Por exemplo, uma empresa e seus funcionários utilizam o ChatGPT, que é aberto, e isso começa a trazer alguns problemas de propriedade intelectual. Então a Nvidia, ciente de tudo isso, tem uma rede neural própria para essas questões, chamada Nemo. Para uma empresa que pretende desenvolver seu próprio ChatGPT, com todas as ferramentas de desenvolvimento e vai usar os próprios dados e vai treinar todo aquele conteúdo para sua necessidade. Porque em algum momento vão vazar dados relevantes.

E quais são as tendências mais iminentes?
Tem a questão de trazer o mundo físico para dentro do mundo virtual. Técnicas de robotização vão poder permitir, por exemplo, que a indústria crie ambientes e cenários trazendo os conceitos de robótica, de física, para tornar aquele ambiente cada vez mais seguro e mais produtivo. Robôs que estão sendo orientados e treinados hoje por redes neurais, mas que também vão ter percepção, visão, vão se antecipar a certas situações. Como nós, seres humanos, que conseguimos prever que onde existe uma fumaça pode haver um incêndio. O robô tem essa questão de percepção.

Será um poder e tanto aos robôs…
A gente tem uma analogia que fala que tudo que se move dentro do mundo que a gente vive vai ser autônomo. Não é tirar poder de criação dos humanos. A gente sabe que cada ser humano tem suas habilidades. Eu vou deixar que o computador faça tudo para mim? Não existe isso, mas o computador pode ajudar em muita coisa. Isso não tem volta.

Muitas coisas estão surpreendendo as pessoas. É para se assustarem?
A gente está criando uma nova leva de pesquisadores. As empresas possuem os dados e sempre quiseram fazer esse tipo de desenvolvimento de um produto, melhorar o relacionamento com os clientes e, com isso, vão poder realmente colocar tudo em prática. Vejo empresas usando as técnicas de inteligência artificial para o bem do negócio delas e estão muito mais eficientes, atraindo melhores profissionais. Não é questão de assustar, pois a gente já usufrui da inteligência artificial. Se você chama um aplicativo de automóvel, se você se orienta por um aplicativo de geolocalização, já está usando técnicas de IA. Agora, a questão é saber usufruir da tecnologia.

Quando se fala que o robô terá percepções muito próximas às dos humanos, isso pode gerar alguns questionamentos, não?
Eu entendo esse lado. A gente tem pensado muito nisso. Mas a questão é a experiência, dependendo do modelo de negócio da empresa. São várias mudanças quando a gente fala de IA. E o nome já fala tudo, é artificial. Nós é que detemos como humanos a inteligência e o poder de desenvolver novos conceitos. Estamos passando por uma transformação. Antigamente eu frequentava mais os shopping centers, hoje eu compro quase tudo pela Amazon. Mas para ela ser tão eficiente de nos entregar algo em 24 horas, tem que estar muito bem automatizada.

“Vejo empresas usando as técnicas de IA para o bem do negócio delas e estão muito mais eficientes, atraindo melhores profissionais’’

E as empresas brasileiras? Como estão se posicionando diante disso tudo?
Temos um braço muito forte no mercado de óleo e gás, diante do destaque que o Brasil representa no cenário global. Empresas brasileiras como Petrobras, Vale, grandes bancos… E a indústria da engenharia e construção, que está recorrendo a essas técnicas de criar cenários virtuais para poder melhor simular ou prever um novo edifício. Essas ainda estão começando a realmente adotar esses conceitos.

Uma certa democratização de setores?
A gente participa de muitos fóruns e os tomadores de decisão dentro dessas organizações já têm bastante conhecimento em tecnologia, mas não necessariamente em inteligência artificial. Então, existe uma hesitação muito grande. Mudar o conceito da estrutura de negócio e adotar um novo conceito computacional requer tempo. Temos feito bastante palestras para desmistificar isso.

E como está a visão governamental para a tecnologia? Vários países têm o setor público mais digitalizado que o nosso…
Tivemos reuniões com alguns órgãos federais. Brasília está começando a acordar para também se beneficiar dessas técnicas de inteligência artificial, principalmente na questão das polícias. Para melhor utilizar esses dados para combater crimes, para ter melhor controle, já que existe a tecnologia disponível. Só que a gente tem de capacitar cientistas de dados que vão trabalhar nesses projetos. Apenas comprar a tecnologia de alto desempenho ou o que há de mais moderno através de licitação não fará a conta fechar. Porque o menor preço ganha. E a tecnologia não funciona assim.

O modelo de licitação para tecnologia tem de mudar? Para uma compra mais direta, talvez?
Entendo que não é bem assim. Sem entrar no mérito da política de governo, também tem muito a ver com as políticas de aquisição e adoção de novos conceitos computacionais. Nas grandes potências existem verbas pré-definidas para investimento, em que é feita aquela compra porque eles querem desenvolver algo e vai requerer um sistema.