Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
No te apresures a All-in DeepSeek V4, primero mira las palabras sinceras de estos 10 profesionales del sector
Nulo
Texto|Zhou Xinyu Wang Yuchan
Edición|Yang Xuan
Interpretar el informe técnico de DeepSeek V4, ha sido la actividad colectiva más apasionada en la industria de IA en estos días.
¿V4 es muy potente? En términos de optimización de ingeniería, la respuesta es indudable. Antes, todos creían en “la estética violenta de la Ley de Escalado” — es decir, aumentar más potencia de cálculo de calidad y mayor escala de parámetros para mejorar el rendimiento del modelo. Pero V4 sigue un camino completamente diferente, define una “estética de moderación en el entrenamiento del modelo”:
No depende de acumular locamente potencia de cálculo y parámetros, sino que mediante una serie de optimizaciones combinadas y reconstrucciones:
Mecanismo de atención (para que el modelo aprenda a “enfocarse en lo importante”, como cuando los humanos leen artículos largos y automáticamente prestan atención a las frases clave)
Arquitectura MoE (modelo de expertos híbridos, que puede entenderse como “que diferentes expertos se encarguen de distintos tipos de problemas, activando solo unos pocos cada vez, ahorrando tiempo y esfuerzo”)
Post-entrenamiento (reforzar y complementar el modelo después de su entrenamiento inicial)
Ingeniería del sistema de inferencia (optimizar la eficiencia en cada etapa de su funcionamiento real)
El resultado de esto es que el V4-Pro, al procesar contextos largos de un millón de tokens (unos decenas de miles de palabras), requiere solo el 27% de la potencia de cálculo que la generación anterior V3.2, y la caché KV que almacena temporalmente el contexto de diálogo (que puede entenderse como la “nota mental” que el modelo toma durante la conversación) se comprimió al 10% de su tamaño original.
Pero, la ingeniería es ingeniería, y las listas solo son listas.
Al evaluar un modelo, no queremos quedarnos solo en los parámetros en papel, sino discutir su valor en escenarios reales de despliegue, desarrollo e inversión. Para ello, invitamos a cerca de 10 desarrolladores, emprendedores en aplicaciones y inversores, a realizar aproximadamente tres días de experiencia y pruebas.
Un resultado contraintuitivo: el impacto de DeepSeek en la capa de aplicaciones puede ser incluso mayor que en la capa de modelos.
Más allá de admirar la optimización extrema de ingeniería, como se confiesa en el informe técnico de V4: la trayectoria de desarrollo suele retrasar de 3 a 6 meses respecto a los modelos cerrados de vanguardia — lo que hace que los logros actuales de V4 sean como hacer un trato con el diablo: ampliar las capacidades de inferencia y agentes, a costa de sacrificar algo de precisión.
Los fabricantes de modelos cerrados pueden respirar aliviados por ahora. Para el mundo comercial que valora estabilidad y precisión, V4 claramente no es un modelo listo para producción.
El científico jefe de Pine AI, Li Bojie, y el fundador de un destacado agente de codificación, Chillin, nos dijeron claramente que la estabilidad en llamadas a herramientas + la tasa de alucinaciones deben mejorarse en la capa de harness (el “arnés” que regula el comportamiento del agente y reduce errores). La implementación de V4 requiere “andamios” (estructuras de soporte).
Pero la iteración del cerebro inteligente suele influir en el ecosistema de aplicaciones downstream. La innovación en IA en aplicaciones enfrentará pruebas más duras en tecnología y capital.
“El rendimiento del modelo base todavía se está iterando rápidamente” — este consenso en la industria también implica que las aplicaciones pueden ser fácilmente subvertidas por nuevos modelos. Un inversor en fondos duales compartió varios casos de “viejas glorias”: “Workflow, Coding…”
El fundador y CEO de “Yuyue Intelligence”, Chen Weipeng, resumió: la barrera futura para aplicaciones de IA será organizar el modelo, el agente, el escenario del producto y la retroalimentación de datos en un sistema de producción confiable, de bajo costo y escalable.
Destacado: no solo capacidades de textos largos y programación, sino también alto rendimiento a bajo costo
Preámbulo: ventaja central — capacidades de código y agentes inteligentes
En varias evaluaciones clave de código y ingeniería de software, V4-Pro ha mostrado el nivel más alto entre los modelos de código abierto actuales, casi igualando a los mejores modelos cerrados. Los datos clave se resumen así:
IA para gráficos
🧑🏫 Co-fundador y CTO de PingCAP, Huang Dongxu
Estoy migrando mi flujo de trabajo Hermes a DeepSeek V4. Antes, usaba Claude Opus y GPT5.4 para agentes, pero luego descubrí que la mayoría de tareas diarias no requieren capacidades de codificación tan altas.
Las tareas diarias principales incluyen: (a) organización de correos; (b) redacción de artículos; © gestión de calendario; (d) resumen de contenidos; (e) navegación web.
Ahora ya he cambiado completamente a DeepSeek V4. Los resultados superan mis expectativas, quizás por algunas optimizaciones en chino, y su capacidad lingüística en general es más acorde con los hablantes nativos en comparación con Opus y GPT.
Mi primera conclusión: si actualmente usas modelos más caros como asistentes en tareas diarias, puedes cambiar con confianza a DeepSeek V4 Pro.
Su capacidad está aproximadamente en el nivel de Claude Sonnet 4.5 a 4.6, pero su precio es menos de una cuarta parte del de los modelos top. Ahora ya no me preocupo tanto por el costo del agente.
El documento de DeepSeek V4 enfatiza mucho el contexto de 1M tokens, pero en realidad no me parece tan relevante, ya que los modelos SOTA actuales ya soportan al menos 1M tokens, solo que ahora se ha alcanzado esa capacidad.
Lo que realmente destaca es:
El costo es realmente muy bajo;
Es un modelo abierto y de código abierto.
No tengo que preocuparme demasiado si Anthropic o OpenAI dejan de suministrar, ya que algunas de mis tareas ya estaban en riesgo antes. Con DeepSeek V4, la sensación de seguridad aumenta.
Luego, en cuanto a capacidades de programación. Como la prueba fue breve, aún no he desarrollado sistemas muy complejos.
Pero en proyectos de unas pocas miles de líneas de código, o en aplicaciones pequeñas, o en escenarios con llamadas a sistemas externos (como acceder a Supabase o TiDB Cloud leyendo documentación para integrar herramientas poco familiares), mi experiencia hasta ahora es que no he tenido problemas importantes.
En proyectos de entre unas pocas miles y diez mil líneas, la tasa de éxito de V4 en un solo paso (proporcionando ejemplos y instrucciones sin ajustes adicionales) sigue siendo bastante alta.
Por eso, si solo haces sitios web sencillos o aplicaciones pequeñas, creo que la capacidad de programación de DeepSeek es mucho mejor que la de la generación anterior.
Porque mi marco Harness no es muy complejo en su organización humana, sino que más bien depende de la colaboración del propio modelo (usando Slock.ai).
Resumiendo:
Puede colaborar con agentes que usen otros modelos;
Puede realizar tareas simples y específicas.
Por eso, si hay modelos más potentes (como GPT5.5) que guían a DeepSeek V4 Pro, y luego le encargan tareas, creo que esto puede reducir mucho los costos de ingeniería del harness.
🧑🏫 Vicepresidente del Centro de Tecnología y Producto de Zero One Wanwu
DeepSeek V4 no es “el más completo”, pero sí “el más confiable” — compromiso firme con el código abierto, informe técnico completo, costos de inferencia muy bajos, y toda la pila tecnológica nacional, lo convierten en la opción de mejor relación calidad-precio para escenarios B2B.
Lo que más me sorprende de V4 son dos cosas:
Primero, la innovación en la arquitectura subyacente. Mantener alta calidad en inferencias con una ventana de contexto de 1 millón de tokens, gracias a la innovación en mecanismos de atención híbridos. Esto puede entenderse como “una lectura gruesa que capta la idea general, y una lectura fina que comprende detalles”.
Especialmente en la compresión del contexto, la innovación es muy avanzada, y DeepSeek ha divulgado sin reservas los detalles en su informe técnico. Esa honestidad y espíritu de código abierto son muy valiosos en una industria tan competitiva.
Segundo, la adaptación completa a la infraestructura de computación nacional. DeepSeek ha logrado compatibilidad con Huawei Ascend 910B/950, en aspectos como cuantización, mecanismos de sparsificación y optimización de expertos en campo.
Esto significa que desde el chip hasta el software de bajo nivel, y en entrenamiento y inferencia del modelo, la solución integral nacional ha dado un paso sustancial en la dirección correcta. Aunque no podemos decir que se haya liberado completamente de la dependencia del ecosistema Nvidia, ya ha encontrado la dirección adecuada. La dificultad y el significado de esto no necesitan explicación.
🧑🏫 Científico jefe de Pine AI, Li Bojie
Lo más impresionante es que DeepSeek ha logrado hacer funcionar en 1.6T (1.6 billones de parámetros), la mayor escala de código abierto actual, una serie de innovaciones arquitectónicas como MoE, CSA+HCA, mHC, Muon, FP4QAT.
Es como combinar varias tecnologías muy avanzadas, que en experimentos pequeños fallaban o se desajustaban, en un motor gigante y estable. Nosotros probamos más de 20 arquitecturas diferentes, y casi todas solo funcionaban en 7 mil millones de parámetros, pero al escalar, fallaban o tenían efectos adversos.
La capacidad de hacer que múltiples innovaciones funcionen en la mayor escala indica que DeepSeek tiene una profunda experiencia en entrenamiento a nivel de infraestructura. Solo una de sus tecnologías, “mHC”, amplificó la señal en casi 3000 veces en experimentos de 27B, y la redujo a unas 1.6 veces en entrenamiento, logrando mayor estabilidad y control.
🧑🏫 Vicepresidente de Lenovo, Director de Inversiones de Lenovo Capital, Socio Senior Song Chunyu
DeepSeek demuestra que la “relación coste-beneficio de IA” puede convertirse en una ventaja estructural activa.
Solo 27% de uso de memoria y 10% de consumo de VRAM. Aunque tiene 1.6T de parámetros, solo activa 49B en cada ejecución, con una eficiencia muy alta.
Esta reducción estructural de costos, junto con la estrategia de API V4-Flash a 1 yuan por millón de tokens, hace que el “contexto ultra largo para todos” sea ahora un nuevo estándar en aplicaciones de IA.
🧑🏫 Fundador y CEO de Yuyue Intelligence, Chen Weipeng
Lo que más me emociona de V4 no es solo la mejora en capacidades puntuales, sino que indica que los grandes modelos nacionales han pasado de “seguir la base de capacidades” a “participar en la competencia de sistemas con agentes”.
Antes, todos se preocupaban por si el modelo respondía, razonaba o programaba; ahora, lo importante es si puede completar tareas complejas de forma estable, y si puede integrarse en productos reales con costos y eficiencia aceptables.
Lástima: para que realmente funcione, V4 aún necesita “andamios”
Preámbulo: desventajas relativas — conocimientos fácticos y razonamiento extremo
DeepSeek y varias plataformas de evaluación señalan varias debilidades evidentes de V4-Pro. Para mayor claridad, hemos organizado los puntos débiles clave en la siguiente tabla:
IA para gráficos
🧑🏫 Científico jefe de Pine AI, Li Bojie
Principalmente uso tareas de código y agentes. En estas tareas:
La capacidad de llamadas a herramientas y conocimientos generales de V4-Pro están a nivel de la segunda categoría de modelos de vanguardia (más o menos equivalente a Claude 4.6 Sonnet);
Pero la estabilidad en llamadas a herramientas y la tasa de alucinaciones siguen siendo puntos débiles — estos deben mejorarse en la capa de harness (por ejemplo, reforzar validaciones, reintentos automáticos, usar bases de conocimiento externas para “anclar” el modelo, definir claramente las reglas de uso de herramientas), de lo contrario, en tareas de larga cadena, los errores se amplifican;
Una vez corregidos estos defectos en la capa de harness, el costo total de inferencia puede ser varias veces menor que el de modelos de vanguardia. Esa es la verdadera palanca.
Otra línea es: que V4-Flash, como ajuste fino vertical, funciona muy bien. ¿Qué es el ajuste fino vertical? Es usar datos especializados en un campo específico para “reentrenar” el modelo base, convirtiéndolo en un experto en esa industria.
Entrenar un modelo de 1.6 billones de parámetros es muy costoso, y la mayoría de las empresas no pueden asumirlo. Los modelos de 200-300B de parámetros son los principales en el mercado para post-entrenamiento. Nosotros hicimos post-entrenamiento en un modelo de 235B (2350 millones de parámetros), pero su rendimiento fue claramente inferior al V4-Flash del mismo tamaño.
El rendimiento de Flash ya iguala al de modelos de código abierto de trillones de parámetros de la generación anterior, superando a V3.2 y Kimi antiguos, con más de 600B. Flash será la base preferida para microajustes de negocio.
🧑🏫 Emprendedor de agentes de codificación, Chillin
Nuestra evaluación interna concluye que, en escenarios de agentes de codificación, V4 de DeepSeek está a nivel de Claude de hace más de un año.
El problema puede estar en dos aspectos: tamaño del parámetro y datos. DeepSeek todavía tiene una brecha significativa con Anthropic.
Para una implementación real, V4 necesita “andamios” especiales, como SWE-Agent (agente de ingeniería de software), OpenHands (un agente de codificación de código abierto), Claude Code, OpenClaw. Todo esto requiere configuración adicional por parte del desarrollador.
🧑🏫 Fundador y CEO de Yuyue Intelligence, Chen Weipeng
Según la experiencia práctica con Loopit (producto de contenido interactivo de IA de Yuyue), en escenarios de codificación, DeepSeek V4 todavía tiene una brecha en estabilidad y tasa de finalización en tareas largas y complejas, respecto a los modelos cerrados más fuertes en el extranjero.
La diferencia de capacidades entre los principales modelos nacionales se está reduciendo. Esto indica que la competencia en modelos entra en una nueva fase: en la era de agentes, la capacidad de entender contextos largos, adaptarse a marcos complejos y completar tareas largas de forma estable, con costos y velocidad aceptables, será igual de importante.
La verdadera diferencia no solo está en el modelo en sí, sino en el sistema completo formado por el modelo, el post-entrenamiento, el marco de agentes, los sistemas de evaluación y la eficiencia de ingeniería.
🧑🏫 Vicepresidente de Lenovo, Director de Inversiones de Lenovo Capital, Socio Senior Song Chunyu
El lanzamiento de V4 no incluyó una versión multimodal nativa (que pueda procesar texto, imágenes, sonidos, etc.), lo cual es algo lamentable en el mercado actual.
Pero, considerando su estrategia de adoptar completamente la computación nacional, esto probablemente sea una decisión temporal para concentrar recursos en resolver la problema central de la base de cálculo.
🧑🏫 Vicepresidente de Zero One Wanwu, Zhao Binqiang
Decir que “no cumple con las expectativas” sería buscarle defectos a la eggshell.
Pero desde la perspectiva de consumo individual (ToC), el producto aún no está suficientemente pulido — la versión Flash, que involucra tareas creativas y de programación, todavía tiene capacidades limitadas; la versión Pro, aunque cercana a los modelos cerrados de primer nivel, requiere mucha potencia inicial y tiene barreras de entrada.
Impacto: la IA no solo se vuelve más barata
🧑🏫 Fundador y CEO de Yuyue Intelligence, Chen Weipeng
Una tendencia importante es que la IA no se vuelve simplemente más barata.
El costo de llamada a los modelos más avanzados en todo el mundo en realidad está en aumento, porque soportan tareas más complejas, contextos más largos y mayor valor. Lo que se vuelve realmente más barato son los modelos de nivel medio, de código abierto y desplegables.
Por eso, en el futuro, las empresas de aplicaciones no solo preguntarán “¿cuál modelo es más fuerte?”, sino que construirán un sistema de gestión de modelos: qué tareas requieren el modelo más potente, cuáles pueden usar modelos de buena relación coste-beneficio, y qué capacidades pueden complementarse con marcos de agentes y sistemas de ingeniería.
El valor de V4 de DeepSeek radica en que enriquece aún más la oferta de modelos.
Para las empresas, no se trata solo de reemplazar modelos extranjeros, sino de permitir una orquestación más flexible, despliegue y optimización de costos en múltiples modelos.
El futuro de las barreras en aplicaciones de IA no será solo llamar a un modelo, sino organizar modelos, agentes, escenarios de producto y retroalimentación de datos en un sistema de producción confiable, de bajo costo y escalable.
Para Loopit, esta tendencia es clave. Nuestro trabajo en contenido interactivo de IA depende de la capacidad de los modelos para crear contenido, y del costo y velocidad para escalar esa creación.
Solo cuando diferentes niveles de modelos sean suficientemente útiles y puedan ser orquestados eficazmente, las ideas de los usuarios podrán generarse, interactuar y difundirse en tiempo real. El avance de V4 acelerará este proceso.
🧑🏫 Científico jefe de Pine AI, Li Bojie
En el mercado de microajustes verticales, modelos base de 200-300B como Qianwen, Llama, están siendo reemplazados sistemáticamente por sistemas V4-Flash.
Todos los equipos que hacen post-entrenamiento en estos tamaños volverán a evaluar; si Flash supera en rendimiento y su marco de inferencia Day-0 (SGLang/vLLM/TileLang) está completo, en 6 meses será la opción predeterminada para modelos verticales de código abierto en China.
El ecosistema de inferencia de Huawei Ascend 950 SuperNode ya está en marcha, y desafía la prima de los chips Nvidia.
Es la primera solución completa que combina “chip nacional + modelo de código abierto de nivel top” (NVIDIA/AMD no lograron adaptar V4 en sus primeras versiones). Después de que el 950 tenga una producción masiva en la segunda mitad del año, en escenarios de agentes con contexto largo, aparecerá una ola de reemplazos puramente nacionales.
Este impacto indirecto revaloriza la valoración y la prima de Nvidia en China — no por volumen de ventas, sino por poder de negociación.
El costo total de usar agentes para tareas complejas y de largo plazo se reduce drásticamente.
El costo por token en V4-Pro, con la caché ( no hit, y con costos de 1.74 USD por entrada y 3.48 USD por salida + KV de 1M tokens y MegaMoE, ya es solo 1/6 a 1/7 del de los modelos de vanguardia.
Mientras la industria mejore la estabilidad y la tasa de alucinaciones en la capa de harness (verificadores, grounding externo, esquemas estrictos, votación de coherencia), los estudios de múltiples pasos, agentes de código largo y aplicaciones de búsqueda profunda que antes no eran viables por costo, saldrán de los demos y entrarán en producción real en la segunda mitad de este año. El punto de inflexión de la economía de agentes está en esta ola.
Y, los fabricantes cerrados de modelos de vanguardia no bajarán precios — sus productos seguirán siendo claramente superiores, y V4 no presionará en precios.
🧑🏫 Vicepresidente de Zero One Wanwu, Zhao Binqiang
El núcleo de las aplicaciones B2B de IA es: lograr control de costos en todo el ciclo, garantizando la efectividad. La aparición de V4 de DeepSeek ofrece una solución muy competitiva.
Flash cubre tareas simples, Pro cubre escenarios complejos, y en general los costos son mucho menores que los de las soluciones cerradas líderes, permitiendo a Zero One Wanwu ofrecer soluciones con mejor relación costo-beneficio.
Más importante aún, la apertura de DeepSeek es firme e inquebrantable, no se convertirá en cerrado de repente, evitando que la inversión en aplicaciones se vea afectada. Esta postura firme en código abierto brinda una gran certeza a las decisiones tecnológicas empresariales.
Zero One Wanwu ya ha iniciado evaluaciones y validaciones de capacidades basadas en DeepSeek V4, enfocándose en rendimiento en planificación de producción, oficina inteligente y gestión de inversiones. Tras la validación, considerarán reemplazar modelos existentes, permitiendo que más clientes en diferentes industrias accedan a grandes modelos nacionales de primera línea.
Tras el lanzamiento de V4, creo que la industria experimentará tres cambios principales:
El éxito de la adaptación de DeepSeek a Huawei Ascend significa que la industria nacional de IA ha dado un paso sustancial en la dirección de la “cadena completa de tecnología: chips + frameworks + modelos + aplicaciones”.
Para clientes gubernamentales y corporativos con requisitos regulatorios, esto es una necesidad real. La sustitución local en el mercado B2B se acelerará claramente.
DeepSeek logra resultados cercanos a los modelos cerrados de primer nivel a una fracción del precio, y su efecto demostrativo elevará el rendimiento general de los modelos open source.
Esto también presionará a fabricantes como Anthropic y OpenAI a ajustar sus estrategias de precios. La rentabilidad del sector se desplazará desde los modelos base hacia aplicaciones sectoriales profundas, beneficiando el desarrollo a largo plazo de la IA.
La apertura reduce la barrera de entrada a los modelos base, pero la capacidad de harness determina la implementación real. Desde modelos open source de alta calidad hasta productos empresariales confiables, hay una capa intermedia: eliminación de alucinaciones, cumplimiento de instrucciones, validación de errores, inyección de especialización, etc.
Cada industria tiene necesidades distintas, y no existe un harness universal. Esa es precisamente la ventaja central de Zero One Wanwu: mediante evaluación automática, retroalimentación, mejora automática e inyección de especialización, construyen rápidamente sistemas de harness específicos para cada sector, logrando que los grandes modelos se usen realmente en los negocios.
🧑🏫 Vicepresidente de Lenovo, Director de Inversiones de Lenovo Capital, Socio Senior Song Chunyu
Primero, los contextos de millones de tokens se vuelven “estándar” en aplicaciones, impulsando la explosión de agentes: V4 lleva la capacidad de contextos ultra largos a infraestructura básica accesible.
Segundo, la competencia sectorial pasa de “competir en modelos” a “competir en aplicaciones y datos”: cuando los modelos open source de alto rendimiento se acercan a los cerrados y los costos bajan mucho, el modelo en sí deja de ser una barrera escasa. La inversión y competencia se enfocarán en quién puede aprovechar estos modelos para crear ciclos de datos y aplicaciones en sectores de alto valor como salud, finanzas y legal, formando una barrera competitiva.
Tercero, la cadena de valor de la computación nacional recibe una inversión enorme: el éxito de V4 demuestra que los grandes modelos también pueden brillar en la computación nacional. Esto generará una demanda segura de infraestructura de computación nacional, impulsando inversiones en chips, servidores y servicios en la nube en toda la industria.
Creemos que “la computación nacional de este año será como la de hace un año en el extranjero”, y la tendencia industrial y el impacto en el mercado de capitales serán muy fuertes.
Dirigiremos recursos a proyectos que puedan escalar rápidamente, que puedan implementarse en industrias y que puedan crear barreras de producto, mientras mantenemos inversiones a largo plazo en infraestructura y arquitectura base.
🧑🏫 Inversor de fondos duales
Mi deseo para este año es que el portafolio de modelos base (los que invierten) pueda salir a bolsa sin problemas.
Tras la financiación de V4, seguramente atraerá una gran cantidad de fondos del mercado primario (especialmente fondos estatales). Para las pocas empresas de modelos base que aún no cotizan, seguir financiando en ciclo no será sostenible.
También tengo una visión pesimista: este año será difícil para la financiación en la capa de aplicaciones.
La capacidad de los modelos base todavía está en rápida iteración, lo que significa que muchas aplicaciones serán subvertidas. Como en el caso de Coding y Workflow, que estaban muy en auge el año pasado, ya no se mencionan mucho en el mercado primario.
🧑🏫 Emprendedor de agentes de codificación, Chillin
La apertura es buena, y V4 de DeepSeek puede impulsar aún más la comunicación y optimización. Pero el desfase temporal es muy grande, y eso resulta frustrante.
V4 de DeepSeek obligará a los fabricantes de modelos a afrontar con mayor seriedad los problemas de escala y datos, que son extremadamente difíciles de resolver, y que dependen mucho del capital.
También confirma los límites de la Ley de Escalado. La mejora en rendimiento por ingeniería tiene límites, y todos deben buscar soluciones más profundas. El camino es largo y difícil.
Bonus: Guía práctica para DeepSeek V4
¿Para qué sirve?
Programación y aprendizaje de código: si eres principiante en programación o necesitas scripts personales, V4 es una de las mejores opciones actuales. Puede entender contextos con mucha fiabilidad, generar código de alta calidad y depurar con gran eficacia.
Creación de contenido en chino y en japonés/coreano (CJK): ya sea para escribir artículos, pulir textos o traducir, V4 destaca en entornos en chino, japonés y coreano.
Lectura y análisis de textos largos: soporta contextos de hasta 1 millón de tokens. Puedes alimentarle libros completos, informes extensos o bases de código completas, y que te ayude a resumir o extraer información clave.
¿Para qué no sirve?
Búsqueda y verificación de hechos objetivos: V4 es un “modelo de razonamiento”, no una “enciclopedia”. Su memoria de hechos (como detalles históricos o datos específicos) es débil, y es muy propenso a alucinaciones. La versión V4-Flash obtiene solo un 34.1% en pruebas de respuestas fácticas. No lo uses como buscador, y para verificar hechos, usa otros AI con función de búsqueda o verifica tú mismo.
Procesamiento de imágenes o maquetación de documentos: V4 es un modelo de texto puro, sin soporte para entrada o salida de imágenes (No Vision). Para análisis de gráficos o fotos, usa modelos multimodales como GPT-5.4 Mini.
Escritura creativa avanzada en inglés: aunque puede escribir en inglés, a veces su estilo resulta rígido. Si buscas contenido muy natural, auténtico y creativo en inglés, usa otros modelos occidentales.
Otros aspectos importantes:
Permitir espacio para pensar: si usas la versión Pro con cadena de razonamiento explícito (CoT), en problemas difíciles, anima al modelo a “pensar varias veces” o activa “Think Max”. Cuanto más profundo sea su razonamiento, más precisa será la respuesta.
Tolerar respuestas algo largas: V4 tiende a ser “largo y detallado”, y su velocidad de salida es más lenta. Si quieres respuestas cortas, pide explícitamente “responde en una frase” o “sé breve”.
¡Bienvenido a la interacción!