Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Después de codificar con MiMo vibe un fin de semana...
Tras su lanzamiento, probé MiMo utilizando el crédito gratuito en OpenCode para hacer un pequeño proyecto. El proyecto en sí no era muy difícil, pero MiMo se quedó colgado durante mucho tiempo y no mostró ningún error evidente, por lo que en ese momento tuve una mala impresión de MiMo.
Pero el viernes por la noche, vi a alguien decir que el método de facturación por tokens en la página oficial de MiMo sería mucho más efectivo que el crédito gratuito en OpenCode, así que recargué 200 yuanes y continué con mi proyecto original, además de dos tareas de limpieza de datos un poco más complejas.
Mi sensación es que, de verdad, es mucho mejor que todos los modelos nacionales que usan Coding Plan anteriormente.
Esto no necesariamente se refleja en la tasa de éxito de cada ejecución individual, sino en que cuando usaba Coding Plan, sentía vagamente que los fabricantes de grandes modelos nacionales imponían algunas restricciones en las llamadas a los agentes: quizás limitaban la longitud de la cadena de pensamiento, o restringían el número de rondas de ejecución del agente, lo que hacía que estos agentes tendieran a terminarse cuando estaban entre un 50% y un 60% de completar la tarea. Para casos límite realmente difíciles o algunos bugs complejos, parecía que simplemente no los veían.
Con MiMo, creo que este problema mejora mucho. Realmente puede ejecutarse durante varias horas para resolver bugs muy complicados. Desde un punto de vista lógico, es fácil de entender: en Coding Plan, cuanto más se llama, mayor es el costo; en cambio, con la facturación por tokens, cuanto más se llama, más ingresos se generan.
En mi experiencia práctica, aunque gasté 200 yuanes, logré resolver tres tareas que me habían estado molestando durante bastante tiempo. Personalmente, creo que valió mucho la pena. Incluso si comprara datos ya preparados en línea, seguramente costarían más de 200 yuanes.
Pero esta experiencia me hizo pensar en un punto contradictorio sobre los modelos nacionales:
Modelos de punta como Claude ya pueden reemplazar gran parte del trabajo, y las capacidades de los fabricantes nacionales en realidad pueden alcanzar entre el 80% y el 90% de Claude; sin embargo, si se sigue promoviendo principalmente mediante Coding Plan, la experiencia de uso seguirá siendo muy deficiente. Para tareas un poco más complejas o delicadas, simplemente no pueden manejarse. Esto no se debe a que el modelo no tenga suficiente capacidad, sino a las restricciones en las llamadas impuestas por los fabricantes, que a su vez afectan la popularización y difusión del agente en el trabajo.
Creo que este problema se debe principalmente a las limitaciones de potencia de cálculo y a las costumbres de precios en los servicios nacionales. ¿Qué opinan ustedes al respecto?
Mi idea personal es que en los próximos 3 a 5 años, la demanda de potencia de cálculo seguirá siendo muy alta, pero la cuestión es si esto beneficiará principalmente a empresas como Nvidia o si realmente podrá impulsar la actualización de los chips nacionales.
(Recientemente, también se ha dicho que DeepSeek V4 lleva mucho tiempo en desarrollo porque necesita adaptarse a chips nacionales, lo que ha impedido que el entrenamiento converja bien…)