Guojin Securities: AI Agent Drives Non-linear Growth in Computing Power Demand, Focus on Industrial Chain Investment Opportunities

robot
Generación de resúmenes en curso

23 de marzo, 248,000 estrellas en GitHub, consumo de tokens 4 veces mayor, aumento del 1445% en consultas empresariales—una serie de datos que delinean un cambio clave en la industria de la IA: la transición del paradigma de Prompt a agentes largos ya ha comenzado. Los datos de la plataforma OpenRouter muestran que el razonamiento en múltiples pasos está acelerando la sustitución de la interacción de una sola ronda; las pruebas de Anthropic indican que el consumo de tokens de un solo agente es aproximadamente 4 veces mayor que en el modo de diálogo, y los sistemas de múltiples agentes alcanzan hasta 15 veces más. A medida que aumenta la duración de la operación de los agentes, la demanda de potencia de cálculo está entrando en una nueva fase de expansión no lineal.

Transición en el paradigma de demanda de cálculo: de Prompt a agentes largos

  1. El paradigma de interacción de la inteligencia artificial está experimentando una transformación fundamental. Los sistemas de IA han evolucionado de ser herramientas de preguntas y respuestas únicas a agentes autónomos capaces de razonar, planificar y operar de forma continua. La tendencia ha sido confirmada claramente: los datos de la plataforma OpenRouter muestran que el razonamiento en múltiples pasos y las llamadas a herramientas en cadena están reemplazando rápidamente la interacción de una sola ronda tradicional. El marco de agentes de código abierto OpenClaw, lanzado hace solo cuatro meses, ha alcanzado más de 248,000 estrellas en GitHub, encabezando la lista de proyectos de código abierto a nivel mundial, lo que indica que los agentes de larga duración han pasado de la fase experimental a la implementación en producción. 2) El consumo de tokens en tareas de agentes ya supera ampliamente el escenario de preguntas y respuestas tradicional: las pruebas de Anthropic muestran que un solo agente consume aproximadamente 4 veces más que en modo de diálogo, y los sistemas de múltiples agentes alcanzan hasta 15 veces más. NVIDIA también señaló claramente en su blog técnico de enero de 2026 que la próxima generación de fábricas de IA debe ser capaz de manejar decenas de miles de tokens de entrada para soportar el razonamiento con contexto largo. La transición de paradigma ya ha ocurrido, y se ha formado una nueva lógica de crecimiento en la demanda de potencia de cálculo.

El impulso de los agentes largos aumenta de forma no lineal la demanda de potencia de cálculo

Las principales razones del aumento en la demanda de potencia de los agentes largos son: 1) Mecanismos técnicos: en primer lugar, el costo computacional del mecanismo de atención propia en modelos grandes crece cuadráticamente con la longitud del contexto; en segundo lugar, la fase de decodificación del razonamiento está naturalmente limitada por el ancho de banda de memoria. A medida que el KVCache se expande linealmente con el contexto, la utilización de la GPU disminuye continuamente, y los cuellos de botella en el rendimiento se vuelven más evidentes. La estructura de precios de los principales fabricantes refleja estos costos físicos: Google Gemini 3.1 Pro y Alibaba Cloud Qwen utilizan tarifas escalonadas según la longitud del contexto. 2) La aparición de arquitecturas de múltiples agentes introduce una dimensión adicional de costos de comunicación. Los datos de Gartner muestran que, desde el primer trimestre de 2024 hasta el segundo trimestre de 2025, las consultas empresariales sobre sistemas de múltiples agentes aumentaron un 1445%; además, un estudio de Google DeepMind señala que la compresión y transmisión del contexto global entre agentes paralelos genera inevitablemente un “impuesto de coordinación”, y los costos de comunicación aumentan de forma no lineal con el número de agentes. 3) La paradoja de Jevons amplifica aún más estos efectos: el CEO de Microsoft, Nadella, predice que la mejora en la eficiencia del razonamiento del modelo, al reducir costos, estimulará un crecimiento aún más rápido en su uso.

En resumen, el aumento en la duración de operación de los agentes es una tendencia tecnológica inevitable. En un futuro cercano, la demanda de ancho de banda de memoria, capacidad de interconexión y densidad de cálculo inteligente continuará expandiéndose a un ritmo no lineal.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado