(Reuters) – A divisão de computação em nuvem da Amazon.com lançou nesta quinta-feira um conjunto de tecnologias destinadas a ajudar outras empresas a desenvolver seus próprios chatbots e serviços de geração de imagens apoiados por inteligência artificial.

Microsoft e Alphabet estão adicionando chatbots de inteligência artificial a produtos de consumo, como seus mecanismos de pesquisa, mas também estão de olho em outro grande mercado: vender a tecnologia a outras empresas por meio de suas operações de computação em nuvem.

+ Entenda por que o vazamento dos documentos secretos americanos na internet é muito grave

A Amazon Web Services (AWS), maior provedora de computação em nuvem do mundo, entrou na corrida nesta quinta-feira com um conjunto de tecnologias proprietárias de IA, mas está adotando uma abordagem diferente.

A AWS oferecerá o serviço chamado Bedrock, que permite que as empresas personalizem os chamados modelos de base – as principais tecnologias de inteligência artificial que permitem tarefas como responder a consultas com texto semelhante a um produzido por humano ou gerar imagens a partir de uma requisição do usuário. O modelo de negócio prevê o uso dos próprios dados do cliente para seu chatbot exclusivo.

A criadora do ChatGPT, OpenAI, por exemplo, oferece um serviço semelhante, permitindo que os clientes ajustem os modelos por trás da ferramenta para terem um chatbot personalizado.

O serviço Bedrock permitirá que os clientes trabalhem com os modelos proprietários da própria Amazon, chamados Amazon Titan, mas também oferecerá um menu de modelos oferecidos por outras empresas. As primeiras opções de terceiros virão das startups AI21 Labs, Anthropic e Stability AI, juntamente com os próprios modelos da Amazon.

O Bedrock permite que os clientes da AWS testem essas tecnologias sem precisar lidar com complexidades relacionadas às centrais de processamento de dados em que estão hospedadas.

“É uma complexidade desnecessária do ponto de vista do usuário”, disse Vasi Philomin, vice-presidente de IA generativa da AWS, à Reuters. “Nos bastidores, podemos abstrair isso.”

Esses servidores usarão uma combinação de microprocessadores personalizados da própria Amazon, bem como chips da Nvidia, o maior fornecedor para o tarefas de inteligência artificial.

“Conseguimos obter dezenas de milhares, centenas de milhares desses chips, conforme precisamos deles”, disse Dave Brown, vice-presidente de Elastic Compute Cloud da AWS, sobre os microprocessadores personalizados da empresa. “É uma válvula de escape para algumas das preocupações da cadeia de suprimentos com as quais acho que as pessoas estão preocupadas.”

Por Stephen Nellis