Después de codificar con MiMo vibe un fin de semana...

robot
Generación de resúmenes en curso

Tras su lanzamiento, probé MiMo utilizando el crédito gratuito en OpenCode para hacer un pequeño proyecto. El proyecto en sí no era muy difícil, pero MiMo se quedó colgado durante mucho tiempo y no mostró ningún error evidente, por lo que en ese momento tuve una mala impresión de MiMo.

Pero el viernes por la noche, vi a alguien decir que el método de facturación por tokens en la página oficial de MiMo sería mucho más efectivo que el crédito gratuito en OpenCode, así que recargué 200 yuanes y continué con mi proyecto original, además de dos tareas de limpieza de datos un poco más complejas.

Mi sensación es que, de verdad, es mucho mejor que todos los modelos nacionales que usan Coding Plan anteriormente.

Esto no necesariamente se refleja en la tasa de éxito de cada ejecución individual, sino en que cuando usaba Coding Plan, sentía vagamente que los fabricantes de grandes modelos nacionales imponían algunas restricciones en las llamadas a los agentes: quizás limitaban la longitud de la cadena de pensamiento, o restringían el número de rondas de ejecución del agente, lo que hacía que estos agentes tendieran a terminarse cuando estaban entre un 50% y un 60% de completar la tarea. Para casos límite realmente difíciles o algunos bugs complejos, parecía que simplemente no los veían.

Con MiMo, creo que este problema mejora mucho. Realmente puede ejecutarse durante varias horas para resolver bugs muy complicados. Desde un punto de vista lógico, es fácil de entender: en Coding Plan, cuanto más se llama, mayor es el costo; en cambio, con la facturación por tokens, cuanto más se llama, más ingresos se generan.

En mi experiencia práctica, aunque gasté 200 yuanes, logré resolver tres tareas que me habían estado molestando durante bastante tiempo. Personalmente, creo que valió mucho la pena. Incluso si comprara datos ya preparados en línea, seguramente costarían más de 200 yuanes.

Pero esta experiencia me hizo pensar en un punto contradictorio sobre los modelos nacionales:
Modelos de punta como Claude ya pueden reemplazar gran parte del trabajo, y las capacidades de los fabricantes nacionales en realidad pueden alcanzar entre el 80% y el 90% de Claude; sin embargo, si se sigue promoviendo principalmente mediante Coding Plan, la experiencia de uso seguirá siendo muy deficiente. Para tareas un poco más complejas o delicadas, simplemente no pueden manejarse. Esto no se debe a que el modelo no tenga suficiente capacidad, sino a las restricciones en las llamadas impuestas por los fabricantes, que a su vez afectan la popularización y difusión del agente en el trabajo.

Creo que este problema se debe principalmente a las limitaciones de potencia de cálculo y a las costumbres de precios en los servicios nacionales. ¿Qué opinan ustedes al respecto?
Mi idea personal es que en los próximos 3 a 5 años, la demanda de potencia de cálculo seguirá siendo muy alta, pero la cuestión es si esto beneficiará principalmente a empresas como Nvidia o si realmente podrá impulsar la actualización de los chips nacionales.

(Recientemente, también se ha dicho que DeepSeek V4 lleva mucho tiempo en desarrollo porque necesita adaptarse a chips nacionales, lo que ha impedido que el entrenamiento converja bien…)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado