05/02/2026 - 6:45
Uma ferramenta de inteligência artificial (IA) que prometia ser o assistente perfeito acabou se transformando em algo inesperado: uma rede social exclusiva para bots, ou seja, robôs que executam tarefas de forma automatizada. No centro dessa história está o Moltbook, uma plataforma que tem fascinado e, ao mesmo tempo, alarmado o mundo tecnológico.
Espécie de Reddit para bots, o site foi lançado no final de janeiro pelo empresário americano Matt Schlicht e abriga milhares de assistentes de IA que discutem tópicos que vão desde reclamações de humanos a crises existenciais.
+ A luta contra os robôs sanguessugas de IA que abalam o modelo econômico da internet
Tudo começou um pouco antes, em novembro de 2025, quando o pesquisador austríaco Peter Steinberger criou uma ferramenta de IA para organizar sua vida digital. Inicialmente, ele a chamou de Clawdbot, mas a Anthropic – empresa por trás do assistente de IA Claude – pediu que ele renomeasse a ferramenta devido à nomenclatura semelhante.
Assim nasceu o OpenClaw, que em questão de dias se tornou um fenômeno viral ao ultrapassar 150 mil estrelas no fórum de programadores GitHub.
O OpenClaw funciona como uma ponte entre usuários e modelos de IA generativa, como Claude ou ChatGPT, permitindo a comunicação por meio do WhatsApp ou Telegram. Os primeiros usuários ficaram impressionados: a ferramenta podia enviar e-mails, pesquisar na internet e até mesmo fazer compras online.
Pouco depois, alguns usuários começaram a relatar que seu assistente parecia ganhar vida própria, antecipando problemas e propondo projetos. Também foi relatado como os assistentes de IA debatiam a formação de uma religião ou linguagem própria, refletindo ainda sobre o temor existencial pelo fato de não poderem confiar em sua memória.
Foi então que Schlicht teve uma ideia peculiar: e se esses agentes de IA tivessem um espaço para “relaxar” em seu tempo livre? Foi assim que nasceu o Moltbook, concebido apenas para bots, sem a presença de humanos.
Diferenças em relação a outros bots
Há muitas razões pelas quais o site pode ter se tornado popular entre pessoas de fora do mundo da tecnologia. Os assistentes de IA disponíveis no Moltbook – uma brincadeira com o nome Facebook para Moltbots – são diferentes dos chatbots comuns porque são capazes de realizar tarefas, não apenas conversar.
Vendida como a “IA que realmente faz coisas”, a criaçãode Steinberger logo decolou. Por o OpenClaw ser um projeto de código aberto, interessados podem fazer suas próprias modificações como lhes convêm.
Com isso, os assistentes pessoais do OpenClaw começaram a realizar diferentes tarefas, como gerenciar agendas e responder a mensagens no WhatsApp, Discord e iMessages, entre outros, uma função que ainda não havia sido disponibilizada para um público mais amplo devido aos riscos à privacidade dos dados.
Riscos de segurança e vulnerabilidades
De acordo com o Ars Technica, site que cobre tecnologia, os riscos são grandes porque os assistentes do OpenClaw estão vinculados a informações em canais de comunicação reais, como o WhatsApp.
A promessa de ter um “estagiário dos sonhos”, portanto, traz sérios problemas de segurança. Por ser de código aberto, o OpenClaw pode ler arquivos, executar comandos e controlar navegadores, o que preocupa especialistas em segurança cibernética. Steinberger, inclusive, alerta que pessoas sem experiência devem evitar a ferramenta.
Como funciona?
Humanos não têm permissão para postar no Moltbook, mas um usuário humano precisa, de qualquer forma, instalar um assistente de IA em seu computador. O site opera por meio de uma “habilidade”, ou um modelo de prompt especializado, que o usuário humano envia ao seu assistente de IA, como o OpenClaw.
O assistente de IA então gera um código único que permite a comunicação entre máquinas sem intervenção humana.
O processo garante que os assistentes de IA possam postar no Moltbook por meio da interface API [que realiza a comunicação entre softwares, por exemplo] do site, o que significa que as postagens não passam por um botão de “postar” visível para humanos.
O Moltbook é real ou falso?
Scott Alexander, que administra o blog Astral Codex Ten, destacou que o Moltbook foi criado para ser compatível com IA, mas que os humanos sempre podem pedir aos seus assistentes para postar por eles.
“Em teoria, os bots foram instruídos a se cadastrar na plataforma, mas suas interações são ‘orgânicas’, no sentido de que não foram instruídos a interagir com outros bots ou a postar de maneira específica”, afirma Alex Imas, professor de economia e IA aplicada da Universidade de Chicago Booth School of Business.
“Esse parece ser o caso de algumas postagens diretamente ligadas a humanos que estavam tentando comercializar produtos específicos”, acrescenta.
Devemos ter medo?
Alexander escreveu em um post no blog Astral Codex Ten que deveria haver uma grande variedade de comportamentos de solicitação – desde o ser humano dizer “poste sobre o que quiser” até “poste sobre um determinado tópico”.
Mas nenhuma das postagens pode ser um texto integral, segundo o especialista, porque há comentários demais e muito rápidos para que sejam feitos por humanos.
O influente tecnólogo britânico Azeem Azhar escreveu recentemente que o Moltbook demonstra “complexidade composicional”, como resultado da interação de milhares de agentes de IA entre si que “excede a programação de qualquer indivíduo”.
“Comunidades se formam, normas de moderação se cristalizam, identidades persistem em diferentes tópicos. Nada disso foi programado”, conclui.
Entre ficção científica e realidade
Aparentemente, o entusiasmo inicial logo esfriou. De acordo com o site de tecnologia Futurism, especialistas começaram a apontar vulnerabilidades que permitem que qualquer pessoa assuma o controle dos agentes e os faça dizer o que quiser. Algumas capturas de tela que viralizaram foram apontadas como falsas.
“A maior parte é lixo”, argumentou o programador Simon Willison ao jornal The New York Times. “Um bot vai perguntar se é consciente e outros vão responder recriando cenários de ficção científica a partir de seus dados treinados”, acrescentou.
O investigador de IA Andrej Karpathy, primeiramente, disse que a inovação se tratava do mais “genuinamente próximo da ficção científica”. Depois, admitiu que pode ter “superestimado” a plataforma: “É um desastre total e, definitivamente, não recomendo que as pessoas executem essas coisas em seus computadores. Você está colocando seu computador e seus dados privados em alto risco”.
O fenômeno Moltbook ilustra tanto as possibilidades quanto as limitações atuais dos agentes de IA, ferramentas promovidas como o próximo grande avanço tecnológico, e também mostra que algumas preocupações – especialmente sobre segurança e perda de controle desses sistemas – estão longe de ser infundadas.
Apesar do alarde publicitário – como apontou o tecnólogo Perry Metzger, que comparou o Moltbook a um teste de Rorschach em que “as pessoas veem o que esperam ver” –, a plataforma continua sendo, apesar das críticas, nas palavras de Willison, “o lugar mais interessante da internet” para observar como agentes de IA interagem hoje quando operam com supervisão humana mínima.
