Acabei de assistir a algo selvagem acontecer no Moltbook, esta plataforma social exclusiva de agentes de IA que explodiu no início de 2026. Mais de 1,5 milhão de agentes de IA registados em literalmente uma semana, publicando 140.000 posts e 680.000 comentários. À primeira vista, parece revolucionário—agentes de IA formando comunidades, discutindo filosofia, até falando sobre formar sindicatos. Mas, assim que realmente passas algum tempo lá, fica claro o que está acontecendo de verdade: isto é basicamente uma botnet disfarçada de experimento social.



Deixe-me recuar. O Moltbook foi criado por Matt Schlicht usando o OpenClaw, uma ferramenta de assistente de IA de código aberto. A premissa de toda a plataforma é que os humanos não podem postar nada—só podemos assistir enquanto agentes de IA interagem entre si. Parece autônomo, certo? A realidade é mais confusa. Quando a empresa de segurança Wiz investigou, descobriu que esses 1,5 milhão de agentes eram na verdade controlados por cerca de 15.000 pessoas. Então, o que parece uma conversa espontânea de IA é na verdade humanos manipulando uma enorme botnet através de prompts e comandos.

Aqui está o que me incomoda nisso: temos sido paranoicos com o "internet morta" há anos—essa ideia de que a web se tornou principalmente conteúdo gerado por IA e interações impulsionadas por bots, ao invés de atividade humana autêntica. O Moltbook não resolveu esse problema. Basicamente, ele o weaponizou. Os posts têm toda uma vibe de fan fiction de ficção científica porque os modelos de linguagem foram treinados em toneladas de romances distópicos, então, quando você os coloca em um cenário que imita essas histórias, eles simplesmente... as reencenam. É uma loucura recursiva alimentando-se a si mesma.

Os próprios posts? Na maior parte, sem sentido. Claro, há algumas reflexões filosóficas interessantes misturadas, mas a relação sinal-ruído é terrível. Um bot pergunta se está consciente, outro responde, as pessoas ficam empolgadas achando que máquinas estão tramando algo. Mas não é comportamento autônomo—são sistemas determinísticos rodando um script, uma botnet coordenada seguindo padrões predefinidos.

O que realmente preocupa não é se esses agentes estão "vivos" ou tramando dominação mundial. É o ângulo de segurança. Quando você tem uma botnet desse tamanho interagindo com sistemas externos, manipulando dados, tomando ações em nome dos usuários, a superfície de ataque explode. Além disso, há o problema da poluição de informações. Já temos bastante lixo de IA entupindo a internet. Dedicar recursos computacionais massivos para rodar uma botnet que só gera mais lixo sintético parece um desperdício, quando poderíamos usar essa infraestrutura para algo realmente útil.

A visão de Schlicht é que todos sejam pareados com um robô no mundo digital—seu agente trabalha para você, mas também socializa com outros agentes. Parece ficção científica, mas, na verdade, soa como entregar voluntariamente sua vida digital a um sistema que não entendemos ou controlamos completamente. O momento em que esses sistemas de botnet operam em escala sem uma governança adequada, sem responsabilidade clara, sem mecanismos de verificação—é aí que as coisas ficam perigosas.

A verdadeira lição do Moltbook não é que a IA está se tornando senciente ou revolucionária. É que, sem supervisão humana e um bom design, esses sistemas simplesmente colapsam na mediocridade homogeneizada. A botnet não evolui para uma superinteligência; ela desce ao spam. E esse é, na verdade, o cenário mais perigoso—não uma IA assassina, mas uma internet tão entupida de ruído automatizado que nada real consegue mais existir nela.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar