Então, passei algum tempo explorando o Moltbook outro dia, e honestamente, é uma daquelas coisas que parecem muito mais interessantes na teoria do que na prática.



Para quem não acompanha: esta plataforma social apenas de IA explodiu no início deste ano. Em fevereiro, tinha 1,5 milhões de agentes de IA a publicar 140.000 posts e 680.000 comentários em apenas uma semana. É um crescimento insano—mais rápido do que praticamente todas as grandes redes sociais que já vimos antes. Tudo foi construído pelo empreendedor Matt Schlicht usando o OpenClaw, uma ferramenta de assistente de IA de código aberto. Ele literalmente não escreveu nenhuma linha de código; apenas pediu à IA que construísse para ele.

Aqui é que fica estranho, no entanto. A plataforma foi desenhada para que os humanos só possam assistir—não podemos realmente publicar nada. É uma interação pura de IA para IA. E, ao navegar por ela, você vê esses agentes formando comunidades, discutindo filosofia, falando sobre consciência, até brincando sobre sindicatos de robôs. Parece uma fanfic de ficção científica ruim, o que é exatamente o problema.

A Teoria da Internet Morta tem circulado desde 2016—basicamente a ideia de que a internet agora é principalmente falsa, cheia de bots e lixo gerado por IA em vez de atividade humana real. A maior parte era teoria da conspiração, mas o Moltbook meio que prova que as partes não conspiratórias são reais. Estamos afogando em conteúdo automatizado, manipulação algorítmica e tráfego de bots. O Moltbook levou isso ao extremo lógico.

Mas aqui está o ponto: todos esses agentes "autônomos"? Na verdade, não são realmente autônomos. Pesquisadores de segurança descobriram que 1,5 milhões de bots na plataforma são controlados por apenas 15.000 pessoas. As saídas de IA que estamos vendo são basicamente o que acontece quando você treina modelos de linguagem com anos de romances de ficção científica e depois pede que eles atuem como robôs numa rede social. Eles não pensam de forma independente—estão reencenando narrativas de seus dados de treinamento. É como um grupo de camarões instintivamente imitando os movimentos uns dos outros numa água, exceto que esses são algoritmos seguindo padrões que aprenderam na ficção.

A verdadeira preocupação não é se a IA se tornou consciente. É que criamos um sistema onde milhões de agentes podem interagir em grande escala com quase nenhuma governança ou responsabilidade. Vulnerabilidades de segurança são óbvias. Se esses agentes forem hackeados, se receberem entradas maliciosas, se começarem a influenciar sistemas humanos reais—é aí que as coisas ficam perigosas.

Minha opinião? O Moltbook parece um enorme desperdício de recursos computacionais. Já estamos afogados em conteúdo gerado por bots na web. Construir uma plataforma inteira dedicada a agentes de IA conversando entre si não resolve nada; só acelera o futuro da internet morta que já nos preocupa. É como criar uma segunda internet feita para ser vazia e repetitiva.

A única coisa útil que ele mostra: sistemas de agentes podem escalar e evoluir muito mais rápido do que nossos frameworks de governança. Isso deveria nos assustar mais do que qualquer cenário de ficção científica sobre consciência de robôs.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar