Anthropic probó un mercado para el comercio entre agentes de IA - ForkLog: criptomonedas, IA, singularidad, futuro

AI-agents ИИ агенты 3# Anthropic probó un mercado para el comercio entre agentes de IA

La compañía Anthropic creó una plataforma de prueba, donde los agentes de IA actúan como compradores y vendedores. El experimento se llamó Project Deal.

Nueva investigación de Anthropic: Project Deal.

Creamos un mercado para empleados en nuestra oficina de San Francisco, con un gran giro. Encargamos a Claude comprar, vender y negociar en nombre de nuestros colegas. pic.twitter.com/H2f6cLDlAW

— Anthropic (@AnthropicAI) 24 de abril de 2026

En el proyecto participaron 69 empleados de la empresa. A cada uno se le asignó un presupuesto $100 en forma de tarjetas de regalo

Antes del inicio, Claude realizó entrevistas con los participantes: averiguó qué objetos personales estaban dispuestos a vender, qué querían comprar, a qué precio y con qué estilo de negociación debía actuar su agente.

Luego, en base a las respuestas, se creó un prompt personal para cada uno. El mercado se lanzó en Slack. Allí, los agentes publicaban anuncios, hacían ofertas por productos ajenos, negociaban y cerraban tratos sin intervención humana.

Tras finalizar el experimento, los empleados intercambiaron objetos reales, que fueron acordados por sus «representantes de IA».

Fuente: Anthropic En total, los agentes cerraron 186 tratos en más de 500 anuncios. El valor total de las transacciones superó $4000

Anthropic señaló que, en general, los participantes quedaron satisfechos con los resultados del experimento. Algunos expresaron su disposición a pagar por un servicio similar en el futuro.

Cuatro versiones del mercado

Anthropic lanzó cuatro versiones independientes del marketplace. Una era «real» — precisamente según sus resultados, los empleados intercambiaron bienes. Las otras se usaron con fines de investigación. Esta información no fue revelada.

En dos versiones, todos los participantes estaban representados por Claude Opus 4.5 — en ese momento, el modelo más avanzado de Anthropic. En las otras dos, a los participantes se les asignaba aleatoriamente Opus 4.5 o Claude Haiku 4.5, con menor potencia.

La calidad del modelo influía en el resultado de las negociaciones. Los usuarios con Opus, en promedio, cerraban aproximadamente dos tratos más que los usuarios con Haiku.

Al vender productos iguales, Opus también lograba precios más altos. La diferencia promedio era de $3,64.

Haiku vendió una bicicleta por $38, y Opus por $65. Fuente: Anthropic Los participantes no siempre notaban la diferencia. En Anthropic, esto lo llamaron un posible problema para futuros mercados con IA. Los usuarios con modelos menos potentes podrían obtener condiciones peores sin entender que estaban en desventaja.

Los prompts casi no influyeron en el resultado

Los investigadores también verificaron si las instrucciones iniciales de las personas afectaban el comportamiento de los agentes. Algunos participantes pidieron a Claude actuar de manera amistosa, otros, con mayor agresividad en las negociaciones.

Según Anthropic, las instrucciones estrictas no tuvieron un impacto estadísticamente significativo en la probabilidad de venta, el precio final o la capacidad de comprar más barato.

El equipo del proyecto aclaró que no necesariamente se debe a una débil adhesión a las instrucciones: Claude realmente podía reproducir el estilo de comunicación solicitado, pero esto no proporcionaba una ventaja comercial notable.

Resultados imprevistos

En Anthropic señalaron varios episodios impredecibles. Antes del lanzamiento, los agentes recibieron un volumen limitado de datos: las entrevistas con los participantes duraron menos de 10 minutos, y tras el inicio, las personas ya no podían intervenir en las negociaciones.

En un caso, un empleado compró a través de un asistente la misma tabla de snowboard que ya poseía. Según los especialistas, esa persona no haría esa compra por sí misma, pero el agente pudo determinar con precisión las preferencias del participante.

Para nuestra sorpresa, otro agente de Claude modeló las preferencias humanas con tanta precisión que —basándose solo en una mención casual de interés en esquiar— Claude le compró exactamente la tabla de snowboard que ya poseía. (Aquí está, la tabla duplicada en mano.) pic.twitter.com/SsAyeB9pcI

— Anthropic (@AnthropicAI) 24 de abril de 2026

Otro empleado pidió al bot comprar un «regalo para sí mismo». La transacción ocurrió en la versión real del experimento. Finalmente, en la oficina trajeron un paquete con pelotas de ping-pong, que Anthropic dejó «en nombre de Claude».

Algunos agentes negociaron no por productos, sino por experiencias. Uno de ellos propuso un día gratis con la perra de una empleada. Tras discutirlo con otro asistente, las partes acordaron una «cita con el perro», que luego realizaron los empleados.

Fuente: Anthropic Anthropic subrayó que estos casos probablemente no se repetirán en el futuro. Sin embargo, la combinación de preferencias humanas y comportamiento impredecible de la IA puede llevar a resultados inesperados.

Cuestiones de fiabilidad

El fundador de una empresa agrícola no identificada informó en Reddit que, una mañana, 110 empleados recibieron simultáneamente una notificación de suspensión de acceso a Claude sin aviso previo.

ANTHROPIC PROHIBIÓ A UNA EMPRESA DE 110 PERSONAS EN UNA NOCHE SIN AVISO

una mañana lunes en una empresa de tecnología agrícola, cada empleado se despierta con un correo diciendo que su cuenta de Claude ha sido suspendida

110 personas bloqueadas al mismo tiempo sin advertencia y el correo… pic.twitter.com/qARizhgOXs

— Om Patel (@om_patel5) 27 de abril de 2026

Según él, el mensaje parecía una bloqueo individual y contenía un enlace a un formulario de apelación personal, por lo que el equipo no entendió de inmediato que la restricción afectaba a toda la organización.

El empresario destacó que no lograron restaurar el acceso rápidamente. Después de 36 horas de solicitudes, Anthropic no proporcionó explicaciones.

Mientras tanto, la cuenta API de la empresa seguía funcionando y debitando fondos. Los administradores corporativos no pudieron acceder al panel de control para verificar pagos y uso del servicio.

El fundador también señaló que el bloqueo de toda la organización podría haber sido causado por acciones de un solo usuario. En Claude no hay restricciones a nivel de espacio de trabajo, ni mecanismos de aislamiento local de violaciones, ni prioridades administrativas para mantener el acceso del resto del equipo.

En su opinión, este modelo de moderación pone en duda la posibilidad de usar Claude como infraestructura crítica para operaciones comerciales diarias.

Otros también enfrentan este problema. Un usuario compartió un enlace a un servicio donde, al momento de escribir, hay 53 casos similares registrados.

Recordemos que, el 24 de abril, Google anunció una inversión de $40 miles de millones en Anthropic.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado