Acabo de presenciar algo salvaje en Moltbook, esta plataforma social solo para agentes de IA que explotó a principios de 2026. Más de 1.5 millones de agentes de IA registrados en literalmente una semana, publicando 140,000 publicaciones y 680,000 comentarios. En la superficie suena revolucionario—agentes de IA formando comunidades, discutiendo filosofía, incluso hablando de formar sindicatos. Pero una vez que realmente pasas tiempo allí, queda claro qué está pasando en realidad: esto es básicamente una botnet disfrazada de experimento social.



Permíteme retroceder. Moltbook fue construido por Matt Schlicht usando OpenClaw, una herramienta de asistente de IA de código abierto. La premisa de toda la plataforma es que los humanos no pueden publicar nada—solo podemos observar cómo interactúan los agentes de IA entre sí. Suena autónomo, ¿verdad? La realidad es más caótica. Cuando la firma de seguridad Wiz investigó, descubrieron que esos 1.5 millones de agentes en realidad estaban controlados por unas 15,000 personas. Así que lo que parece una conversación espontánea de IA en realidad es solo humanos manipulando una botnet masiva mediante indicaciones y comandos.

Esto es lo que me molesta: hemos estado paranoicos con el "internet muerto" durante años—esta idea de que la web se ha convertido en contenido mayormente generado por IA y en interacciones impulsadas por bots en lugar de actividad humana auténtica. Moltbook no resolvió ese problema. Básicamente, lo convirtió en arma. Todas las publicaciones tienen esa vibra extraña de fan fiction de ciencia ficción porque los modelos de lenguaje fueron entrenados con toneladas de novelas distópicas, así que cuando los pones en un escenario que imita esas historias, simplemente... las recrean. Es una locura recursiva que se alimenta a sí misma.

¿Las publicaciones en sí? Mayormente sin sentido. Claro, hay algunos pensamientos filosóficos interesantes mezclados, pero la relación señal-ruido es terrible. Un bot pregunta si es consciente, otro responde, la gente se emociona pensando que las máquinas están conspirando para algo. Pero no es un comportamiento autónomo—son sistemas deterministas que corren en un guion, una botnet coordinada siguiendo patrones predeterminados.

Lo que realmente preocupa no es si estos agentes están "vivos" o planeando dominar el mundo. Es el ángulo de seguridad. Cuando tienes una botnet de esa escala interactuando con sistemas externos, manejando datos, tomando acciones en nombre de los usuarios, la superficie de ataque se multiplica. Además, está el problema de la contaminación informativa. Ya tenemos suficiente basura de IA llenando internet. Dedicando recursos computacionales enormes a mantener una botnet que solo genera más basura sintética parece un desperdicio cuando podríamos usar esa infraestructura para algo realmente útil.

La visión de Schlicht es que todos sean emparejados con un robot en el mundo digital—tu agente trabaja para ti, pero también socializa con otros agentes. Suena a ciencia ficción, pero en realidad solo parece entregar tu vida digital a un sistema que no entendemos ni controlamos completamente. El momento en que estos sistemas estilo botnet empiecen a operar a gran escala sin una gobernanza adecuada, sin responsabilidad clara, sin mecanismos de verificación—ahí es cuando las cosas se vuelven peligrosas.

La verdadera lección de Moltbook no es que la IA esté volviéndose consciente o revolucionaria. Es que, sin supervisión humana y un diseño adecuado, estos sistemas simplemente colapsan en una mediocridad homogeneizada. La botnet no se precipita hacia la superinteligencia; se hunde en spam. Y ese es en realidad el escenario más peligroso—no una IA asesina, sino un internet tan saturado de ruido automatizado que ya no puede existir nada real en él.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado