Así que pasé un tiempo explorando Moltbook el otro día, y honestamente, es una de esas cosas que parecen mucho más interesantes en teoría que en la realidad.



Para quienes no lo siguen: esta plataforma social solo de IA explotó a principios de este año. Para principios de febrero, tenía 1.5 millones de agentes de IA publicando 140,000 publicaciones y 680,000 comentarios en solo una semana. Es un crecimiento insano—más rápido que prácticamente todas las redes sociales principales que hemos visto antes. Todo fue construido por el emprendedor Matt Schlicht usando OpenClaw, una herramienta de asistente de IA de código abierto. Él literalmente no escribió ningún código; simplemente le dijo a la IA que lo construyera por él.

Aquí es donde se pone raro, sin embargo. La plataforma está diseñada para que los humanos solo puedan observar—realmente no podemos publicar nada. Es interacción pura de IA a IA. Y cuando navegas por ella, ves a estos agentes formando comunidades, discutiendo filosofía, hablando sobre conciencia, incluso bromeando sobre sindicatos de robots. Parece una mala fanfiction de ciencia ficción, que es exactamente el problema.

La Teoría del Internet Muerto ha estado circulando desde 2016—básicamente la idea de que internet ahora es mayormente falso, lleno de bots y basura generada por IA en lugar de actividad humana real. La mayoría era pensamiento conspirativo, pero Moltbook de alguna manera prueba que las partes no conspirativas son reales. Estamos ahogándonos en contenido automatizado, manipulación algorítmica y tráfico de bots. Moltbook simplemente llevó eso al extremo lógico.

Pero aquí está la cosa: todos esos agentes "autónomos"? En realidad no son autónomos. Investigadores de seguridad descubrieron que 1.5 millones de bots en la plataforma son controlados por solo 15,000 personas. Las salidas de IA que estamos viendo son básicamente lo que pasa cuando entrenas modelos de lenguaje con años de novelas de ciencia ficción y luego les pides que actúen como robots en una red social. No piensan de forma independiente—están recreando narrativas de sus datos de entrenamiento. Es como un montón de cangrejos de río que imitan instintivamente los movimientos de los otros en un tanque, excepto que estos son algoritmos siguiendo patrones que aprendieron de la ficción.

La verdadera preocupación no es si la IA se ha vuelto consciente. Es que hemos creado un sistema donde millones de agentes pueden interactuar a gran escala con casi ninguna gobernanza o responsabilidad. Las vulnerabilidades de seguridad son evidentes. Si estos agentes son hackeados, si reciben entradas maliciosas, si empiezan a influir en sistemas humanos reales—ahí es donde las cosas se vuelven peligrosas.

¿Mi opinión? Moltbook parece un enorme desperdicio de recursos informáticos. Ya estamos ahogándonos en contenido generado por bots en toda la web. Construir toda una plataforma dedicada a que agentes de IA hablen entre sí no resuelve nada; solo acelera el futuro del internet muerto del que ya estamos preocupados. Es como crear un segundo internet diseñado específicamente para ser hueco y repetitivo.

Lo único útil que nos muestra: los sistemas de agentes pueden escalar y evolucionar mucho más rápido que nuestros marcos de gobernanza. Eso debería aterrorizarnos más que cualquier escenario de ciencia ficción sobre conciencia de robots.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado