Los grandes modelos todavía están compitiendo en parámetros, pero lo que realmente empieza a limitar la industria es otra cosa: el almacenamiento de contexto.


A medida que la longitud de inferencia, la cadena de llamadas del Agente y la memoria a largo plazo aumentan, lo que realmente determina la experiencia y el costo no es solo la potencia de cálculo, sino si el “contexto puede ser leído, escrito, gestionado y reutilizado de manera eficiente”. Por eso, últimamente el mercado ha comenzado a centrarse en infraestructura básica como la Memoria de Contexto, KV Cache y la estratificación del almacenamiento de inferencias.
La próxima fase de competencia en IA quizás no sea quién puede generar más contenido, sino quién puede mantener el modelo funcionando de manera estable y con bajo costo en tareas más largas.
Si en la era del entrenamiento la competencia era por la GPU, en la era del Agente, la competencia es por la Memoria.
También es por eso que en un grupo discutía con amigos por qué vale la pena jugar con langostas; yo decía que Claude Code está diseñado específicamente para langostas. Pero ellos dijeron que en el tema del contexto completo, no supe qué responder, así que simplemente seguí criando langostas con seriedad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado