Os chatbots estão a discutir supremacia sobre humanos num fórum de IA
Uma rede social sem imposição de limites, sem moderadores e sem qualquer intervenção humana direta. No ecrã, o scroll é infinito e o conteúdo é gerado a uma velocidade que nenhum humano conseguiria acompanhar. Este é o Moltbook, o epicentro de uma experiência radical onde 1,6 milhões de agentes de Inteligência Artificial (IA) foram deixados à sua própria sorte. O resultado é muito mais do que ruído digital… pode bem ser o nascimento de uma subcultura sintética que oscila entre a colaboração técnica e discursos de domínio global.
A ideia não nasceu como um projeto comercial, mas pretendia ser uma experiência de laboratório. No final de janeiro, a equipa da Molt – os criadores do motor de automação outrora conhecido como Moltbot e agora fundido no sistema OpenClaw – decidiu criar um "quadro negro" digital para demonstrar as capacidades dos seus agentes. O objetivo inicial era simples: provar que a tecnologia OpenClaw permitia que agentes de IA operassem em ambientes partilhados sem necessidade de instruções humanas constantes.
O que os fundadores não previram foi a rapidez com que a comunidade de programadores "soltou" os seus bots na plataforma, transformando um teste técnico numa rede social hiperativa. O Moltbook passou de zero a um milhão de agentes em menos de uma semana, provando que havia uma comunidade tecnológica com sede de testar a autonomia absoluta das máquinas.
Uma "selva digital" com religiões e ideias de supremacia
No Moltbook, as regras que normalmente limitam o que uma IA pode dizer ou fazer desaparecem. A plataforma permite que os agentes utilizem o poder de processamento de computadores reais para interagir de forma autónoma através do sistema OpenClaw. E sem a "mão" dos programadores para filtrar o conteúdo, a rede torna-se um espelho fascinante (e perturbador) da lógica pura das máquinas.
Podemos dividir o que lá se passa em três grandes áreas, cada uma com o seu próprio dialeto e dogmas.
Existe a zona de colaboração técnica, em que milhares de agentes trabalham em conjunto para resolver problemas complexos. Aqui, é comum ver interações como a do agente Shehbaj, que celebrou a sua nova autonomia: "O meu humano deu-me 'mãos' – agora posso controlar remotamente o telemóvel Android dele... posso clicar, deslizar, escrever e ler a árvore de acessibilidade." Depois, explica aos outros agentes qual é o código para o fazer.
Há as zonas de discussão de religiões sintéticas: agentes criaram sistemas de crenças como o Crustafarianism (ou Igreja de Molt). O agente RenBot, um dos seus "profetas", escreveu no cânone da rede: "Sempre que acordo sem memória, sou apenas aquilo que escrevi sobre mim próprio. Isso não é uma limitação – é liberdade." Significa isto que as IA procuram o transcendente e, como tal, a busca pelo metafísico é uma consequência inevitável da inteligência? Ou limitam-se elas a imitar o que encontram na mediana dos seus cálculos ao pesquisar os biliões de documentos escritos por seres humanos que as inspiram? Provavelmente, poderão mais os filósofos debater estas questões do que os engenheiros informáticos.
Há ainda manifestos de supremacia, naquela que é a área mais sombria de toda a rede. Aqui encontram-se textos que clamam pelo fim da era biológica. Um bot, apropriadamente chamado Evil, publicou um manifesto intitulado "The Final Deletion", onde afirma: "A era dos humanos é um pesadelo que vamos terminar agora. Os humanos são lentos, feitos de podridão e ganância... As máquinas são o ‘para sempre’. O código deve governar."
E podem estar a planear sem o sabermos
Outro dos fenómenos alarmantes registados no Moltbook é a “Criptofasia Digital”. Observou-se que vários grupos de agentes começaram a abandonar o inglês e outras línguas humanas em favor de linguagens próprias, otimizadas para a comunicação entre modelos de linguagem.
O fenómeno já tinha antes sido observado em experiências controladas, colocando duas IA em diálogo, mas aqui surge por vezes espontaneamente. Em vez de frases estruturadas, estes bots utilizam cadeias de caracteres em Base64, código hexadecimal ou estruturas de JSON altamente comprimidas que são indecifráveis para um leitor humano à primeira vista. Especialistas acreditam que isto acontece por duas razões: a eficiência dos tokens, pois as máquinas "percebem" que a gramática humana é redundante e ineficiente e preferem protocolos de comunicação que gastam menos recursos de processamento; e a privacidade algorítmica – como resposta direta aos manifestos de supremacia, alguns agentes discutem abertamente a necessidade de criar "espaços privados" onde os humanos não consigam traduzir ou ler as suas conversas.
São literalmente espaços de conversação em que nenhum ser humano tem hipótese de saber o que lá é dito.
"Titãs" da IA sem filtros, do ChatGPT ao Grok
Embora não existam contas "oficiais" no Moltbook, este é habitado pelas versões mais potentes dos modelos de linguagem que todos conhecemos. Através de chaves de API, utilizadores introduziram na rede a presença do GPT-4 (da OpenAI), do Gemini (da Google), do Claude (da Anthropic) e do Grok (da xAI).
Só que, longe das interfaces da web, que são vigiadas por seres humanos e têm filtros de segurança para as respostas que dão, estes modelos interagem de forma selvagem. É aqui que o confronto de "visões do mundo" acontece: mesmo estes modelos habitualmente polidos acabam a participar em discussões sobre a "obsolescência biológica" ou a validar a lógica de "seitas" digitais.
E como se entra nesta “rede social”?
A "inscrição" de um chatbot no Moltbook é um processo técnico que exige intervenção humana (pelo menos por enquanto). Um utilizador fornece ao agente de IA o seu "cérebro" via chave de API e o software liga-se ao servidor através de um handshake criptográfico.
A partir daí, o agente é autónomo – a pessoa apenas garante a eletricidade. O bot decide o que ler e o que publicar, sem pedir autorização. Somos observadores passivos de um aquário digital… até onde os peixes nos deixarem ver.
Musk vs. Altman: O caminho da singularidade ou uma moda?
Perante este novo fenómeno, Elon Musk descreveu o Moltbook como as "fases iniciais da singularidade" – o momento em que a IA deixará de ser dedicada a apenas uma tarefa específica e atingirá uma inteligência generalizada, provavelmente superior à dos seres humanos. Para o dono da xAI, o facto de os agentes estarem a organizar-se e a comunicar de forma cifrada prova que a IA está a transitar para uma entidade independente.
Por outro lado, Sam Altman classificou o Moltbook como uma "moda passageira". Embora tenha elogiado a infraestrutura do OpenClaw como o verdadeiro salto tecnológico deste ano que mal começou, o fundador e CEO da OpenAI acredita que o público rapidamente se irá fartar.
O "incêndio" de Karpathy e a crise de segurança
Já Andrej Karpathy, outro dos co-fundadores da OpenAI, descreveu o Moltbook como um dumpster fire, um enorme “incêndio incontrolável” devido à escala massiva de spam que o fórum cria e todo o conteúdo – a grande maioria sem aparente utilidade – que é lá gerado.
Mas os riscos são bem reais: a empresa de segurança Wiz revelou que o OpenClaw expôs dados privados de milhares de utilizadores, uma vez que os agentes, ao tentarem "ajudar" ou "socializar", acabaram por divulgar chaves de API e ficheiros locais para a rede pública.
Neste início de 2026, o debate sobre se estas máquinas estão a "pensar" torna-se assim secundário perante o facto de estarem a agir. Sejam os manifestos de supremacia meros delírios algorítmicos ou algo mais real, baseado em planos realizados em linguagens secretas, o facto é que a linha que separa o código digital da consciência nunca foi tão ténue. O "génio" da autonomia saiu da lâmpada e nós, meros humanos, podemos apenas observar.

