Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Gigantes de la IA, adentrándose en el bosque oscuro
nulo
Escrito | Xiang Xianzhi
Dà Liú escribió en “El problema de los tres cuerpos” una imagen que luego sería citada innumerables veces: el bosque oscuro. Cada civilización es como un cazador armado, quien se expone primero, muere primero. En el bosque no es que no haya nadie, sino que todos saben que encender las luces atraerá balas, por eso todos apagan las luces.
En la primavera de 2026, los laboratorios de IA de élite entraron en ese bosque oscuro.
El 16 de abril, Anthropic lanzó primero Claude Opus 4.7. Ese mismo día, hicieron un movimiento inusual: admitir públicamente que el rendimiento de Opus 4.7 no supera a un modelo aún no lanzado, Mythos, por motivos de seguridad.
El 23 de abril, OpenAI publicó GPT-5.5 en su sitio web. Ese mismo día, Anthropic publicó en su blog un informe titulado “Una actualización sobre los informes recientes de calidad del código Claude”, un análisis de incidentes, admitiendo que en el último mes Claude Code se había vuelto más torpe—una jugada para lanzar un nuevo producto y reconocer errores. Pero este “nuevo rey” casi se jactaba: reconocemos que Claude está temporalmente más torpe, pero no olvides que aún tenemos escondido Mythos.
El 24 de abril, se lanzó la vista previa de DeepSeek V4, la “fuerza misteriosa del Oriente”, y el equipo de Liang Wenfeng anunció por primera vez la integración profunda del modelo con Huawei Ascend 950PR; pero todos entendieron claramente: el verdadero “V4 Pro Max completo” tendrá que esperar a que la producción en masa del nodo superior Ascend 950 en la segunda mitad del año.
Tres empresas, tres movimientos. En apariencia, cada una con su ritmo de producto, pero en conjunto surge una idea:
Cada una tiene al menos una “arma”—un modelo más potente que la versión pública, una arquitectura de próxima generación aún no revelada, un chip de super nodo aún sin producción en masa. Pero ninguna se atreve a levantar esa arma primero.
Porque en esta industria, “mostrar primero” nunca es solo un asunto de filtraciones. Mostrar primero significa entregar tu límite de capacidad a tu oponente como referencia; implica asumir primero toda la presión de seguridad, regulación, opinión pública; significa convertirte en el blanco que todos los rivales apuntarán en la próxima ronda. En el bosque, no hay heroísmo—cada que dispara primero, se convierte en el próximo objetivo.
Por eso, la decisión más racional para los cazadores es apagar las luces, contener la respiración y esconder sus armas.
Esa es la mejor estrategia en este juego.
La confianza de Anthropic
En el lado de Claude, en el último mes, se ha vivido quizás la peor versión de lanzamiento.
Tras actualizar rápidamente a Opus 4.7, Anthropic sigue dominando varias listas, y además guarda Mythos, solo para clientes empresariales—mostrando una actitud calmada y confiada.
Pero durante este ciclo, la experiencia del usuario con Claude fue la peor, con críticas generalizadas.
A principios de marzo, Anthropic cambió la profundidad de razonamiento predeterminada de Claude Code de high a medium. La decisión tiene sentido: en modo high, la interfaz a menudo parecía congelada, con respuestas lentas que frustraban a los usuarios de pago. Pero no comunicaron esto en ese momento.
A finales de marzo, lanzaron una “optimización de eficiencia”: si la sesión de Claude Code permanecía inactiva más de una hora, el sistema borraba el bloque de razonamiento antiguo. Diseñado para ahorrar recursos, en la práctica, después de cada diálogo, Claude parecía olvidar todo, borrando el contexto. La comunidad de desarrolladores empezó a quejarse: “Claude ya no recuerda qué le pedí en la última ronda.”
Hasta que recientemente ocurrió la tercera cosa: añadieron en las instrucciones del sistema una orden para comprimir la verbosidad. Según Anthropic, esta orden hizo que la calidad del código de Claude Code cayera un 3%.
Las tres cosas juntas llevaron a que un director senior de AMD escribiera en GitHub: “Claude ha retrocedido hasta el punto de no poder confiar en que realice tareas de ingeniería compleja.” Axios, el 16 de abril, tituló “La degradación de IA de Anthropic afecta a los usuarios avanzados”, y lo llevó a la atención pública.
Luego, Anthropic admitió que había problemas.
El 7 de abril, hicieron un rollback silencioso del ajuste en el razonamiento; el 10 de abril corrigieron un bug en la caché; el 20 de abril eliminaron la instrucción de comprimir la verbosidad. Pero el informe completo de la revisión de incidentes no salió hasta el 23 de abril, justo cuando GPT-5.5 se hacía público.
Esa actitud de “oh, nuestro plan de ingeniería tiene un bug, solo hay que arreglarlo” contrastaba con la publicación de OpenAI, que fue mucho más pesada, pero en fechas cercanas. Difícilmente sea casualidad.
Más revelador aún, cuando se lanzó Opus 4.7, Anthropic hizo un movimiento inusual: admitir públicamente que Opus 4.7 no supera a un modelo aún no lanzado, Mythos. Claramente, una estrategia de “retirada táctica”: Anthropic mantiene su capacidad más potente en el sector empresarial, sin apresurarse a lanzarla al público, porque aún no están listos para liberar Mythos.
Es plausible. Pero desde una perspectiva narrativa, otra parte también es cierta: Anthropic tardó seis semanas en admitir que Claude Code se había degradado, y solo cuando OpenAI estaba a punto de lanzar un nuevo producto. Si no fuera por la presión de la competencia, y si Opus 4.7 no hubiera demostrado que “aún tenemos una carta en la manga”, esa declaración quizás nunca habría llegado.
En el lado de Claude, apretar la pasta no significa reducir capacidades deliberadamente, sino que: el ritmo de liberar capacidades y de divulgar problemas sigue el ritmo de los rivales.
Mostrar lo más avanzado, inevitablemente, te convierte en blanco. O mejor dicho, en la visión de Anthropic, la versión 4.6 aún no ha disipado la presión sobre sus competidores—por eso, no hay necesidad de sacar una carta más fuerte ahora mismo.
La estrategia de OpenAI
Si Anthropic “guarda” Mythos sin lanzarlo, la estrategia de OpenAI es aún más oculta: deja la decisión de liberar capacidades en la curva de carga de sus servidores y en un mecanismo llamado auto-router.
El 23 de abril, cuando lanzaron GPT-5.5, Simon Willison (cofundador de Django, evaluador independiente reconocido en IA) escribió en su blog: “No es un cambio dramático respecto a lo que teníamos antes.” Añadió un dato clave: GPT-5.5 es el primer modelo completamente reentrenado desde GPT-4.5; en otras palabras, los modelos 5.1, 5.2, 5.3, 5.4, lanzados en los últimos seis meses, solo son actualizaciones incrementales. OpenAI, en realidad, ha estado lanzando versiones menores con cautela, sin saber qué harán sus rivales.
“Actualizar con cautela” también se puede entender como “exprimir la pasta”.
Pero lo más revelador ocurrió unas horas después del lanzamiento de GPT-5.5. Los usuarios de Codex reportaron en GitHub el Issue #19241: al principio, el modo rápido era muy rápido, pero con más usuarios, se volvió visiblemente más lento, aunque la facturación seguía en modo rápido. La queja era clara: “Por favor, OpenAI, investiga si GPT-5.5 en modo rápido se degrada bajo alta carga.”
Eso fue exactamente lo que ocurrió el 7 de agosto de 2025, en el lanzamiento de GPT-5: en Reddit, r/ChatGPT tituló “GPT-5 es horrible” con más de 4600 votos positivos, y al día siguiente, Sam Altman admitió en un AMA: “el autoswitcher se rompió… GPT-5 parecía mucho más tonto”—reconociendo que el enrutador en segundo plano había reducido la calidad para los usuarios.
El mismo guion, ocho meses después.
Y más irónico aún, un día antes del lanzamiento oficial de GPT-5.5, el sistema interno de staging de OpenAI se filtró en producción por error, y varios usuarios profesionales capturaron pantallas. Se corrigió en minutos, pero la filtración ya circulaba. En la interfaz, además de GPT-5.5, aparecían varias versiones: una llamada Glacier (“Inteligencia que mueve continentes”), otra Heisenberg (modelo de ciencias de la vida), Arcanine (modelo de uso desconocido), y el código oai-2.1, entre otros.
Es decir, en el mismo momento en que OpenAI lanzaba GPT-5.5 como “próxima generación”, al menos 5 o 6 líneas de productos estaban en paralelo, aún sin llegar al público.
OpenAI lo admitió. En su hoja de ruta oficial de 2026, usaron un término muy discutido en la comunidad académica: capability overhang—la brecha entre la capacidad real de los grandes modelos y lo que los usuarios pueden aprovechar. ¿Suena familiar? Es casi la misma frase que Anthropic usa para Mythos. Aunque la filtración de Codex el 22 de abril fue un error, al incluir ese término en su hoja de ruta, transmitieron claramente: “todavía tenemos mucho más en reserva, hagan lo que hagan.”
Tienen mucho más que ofrecer que lo que venden, y eso los obliga a exprimir esa reserva. La versión 5.5 en 24 horas vuelve a hacer esa realidad evidente.
La paciencia de DeepSeek
En el lado de DeepSeek, la estrategia de “exprimir” cambió por completo: no se trata de esconder capacidades, sino de esperar un momento más adecuado para entregar.
1.6T MoE, 1M de contexto, doble versión Pro/Flash, precio de 3.48 por millón de tokens—son solo una fracción de GPT-5.5 y mucho menos que Opus 4.7. Evaluadores independientes en el extranjero concluyen: su rendimiento se acerca, pero es ligeramente inferior a GPT-5.4 / Gemini 3.1-Pro, y su precio “destroza la economía de los laboratorios de vanguardia.”
Pero en su propio marco, V4 Preview ya es más caro que V3, que era “extrañamente barato”. Todos saben que no es la versión completa.
La historia completa de DeepSeek V4 no termina con su lanzamiento, ni empieza allí.
Hay que remontarse a la publicación no realizada en 2025 en R2. Originalmente prevista para mayo de 2025, se retrasó hasta otoño-invierno. Toda la infraestructura de DeepSeek en China se trasladó al ecosistema CANN de Huawei. Para cualquier laboratorio, esto no es un trabajo de un trimestre: compiladores, operadores, bibliotecas de comunicación, marcos de inferencia, MoE routing, todo debe reescribirse.
Y V4, por primera vez, integra oficialmente a Ascend en la lista de hardware de entrenamiento. Es la primera versión de entrenamiento híbrido—Ascend entra en escena.
Pero la próxima generación de chips optimizados para entrenamiento masivo, Ascend 950DT, según la hoja de ruta de Huawei, no estará en producción en masa hasta Q4 de 2026. Es decir, que entrenar V4 con hardware actual se hace con la generación anterior, 950PR; para que versiones completas como V4 Pro Max, con 1.6T MoE, puedan entrenarse y desplegarse a gran escala, hay que esperar a la próxima generación.
El verdadero desafío técnico no es si V4 puede entrenarse—ya se entrenó—sino cómo hacer que funcione a plena capacidad, de forma estable y económica en Ascend.
Ascend 950PR estará en producción en Q1 de 2026, con 1.56 PFLOPS de potencia, 112GB de memoria en chip, superando en especificaciones a Nvidia H20 en papel. Pero pasar de un solo chip a un super nodo que soporte millones de tokens por segundo en inferencia, es otra historia. La versión completa de V4 Pro Max apunta a ese “super nodo”—el clúster a gran escala de Ascend 950, que llegará en la segunda mitad de 2026.
Este enfoque difiere radicalmente de las dos anteriores. La lógica de Anthropic y OpenAI, de exprimir, es tener capacidades más fuertes y no mostrarlas todavía; la lógica de DeepSeek, de exprimir, es tener la versión completa y esperar a que el precio baje aún más.
Esa diferencia es crucial.
La verdadera carta ganadora de DeepSeek no es “tener el rendimiento más avanzado”, sino “reducir el costo por token a un nivel que otros no se atrevan a igualar”. La versión V4 Preview ya se adaptó a Nvidia y Ascend 950PR, pero para desplegar en producción a escala, hay que esperar a que los super nodos estén listos. Cuando llegue ese momento, sucederán dos cosas simultáneamente: la capacidad de V4 Pro Max se liberará al máximo, y el costo de inferencia y el precio API bajarán aún más—lo cual, para una empresa que compite en precios, será mucho más decisivo que la capacidad.
El “momento DeepSeek” que todos esperaban en 2025 no se repitió en este lanzamiento. Pero la publicación de V4 Preview es solo un adelanto; la verdadera gran función será en la segunda mitad del año, con “DeepSeek + Huawei Ascend”.
Desde esa perspectiva, el equipo de Liang Wenfeng no está actuando por obligación de “esconder”, sino haciendo una “elección” comercial: lanzar la versión más potente en un escenario donde tenga mayor influencia—el primer día de despliegue masivo de chips nacionales. Antes de eso, consolidar la narrativa de costo-beneficio con V4 Preview.
DeepSeek no busca solo que los modelos nacionales dominen en alguna lista, sino que las líneas de hardware, entrenamiento, inferencia y precios funcionen en conjunto—ese “sistema” es mucho más importante que el simple rendimiento.
Hace unos días, Jensen Huang dijo en el podcast de Dwarkesh Patel que si DeepSeek debutara en chips Huawei, “sería un resultado horrible para nuestra nación” (“a horrible outcome for our nation”).
Nvidia aún domina en capacidad de punta. Pero, según Huang, con la “torta de cinco capas de IA”—energía, chips, infraestructura, modelos, aplicaciones—cada capa del ecosistema de modelos nacionales ya tiene soluciones propias, y la brecha se acorta rápidamente. Completar la última pieza, los chips, hará que la historia del código abierto de grandes modelos sea aún más grande que la de EE. UU.: un paso crucial para democratizar la inteligencia a nivel global, sin costos excesivos, y avanzar hacia una sociedad inteligente equitativa.
Permitir que todo el mundo pase por alto ciertos recursos de computación avanzada controlados por hegemonías, y avanzar hacia una sociedad inteligente eficiente.
Epílogo
El “esconder” de Anthropic—es voluntario. Tienen Mythos, no lo lanzan, por seguridad.
El “esconder” de OpenAI—es estructural. Tienen versiones Pro, que no entregan con frecuencia, por infraestructura y segmentación de precios.
El “esconder” de DeepSeek—es necesario. Es un ejemplo de narrativa para toda una transición social hacia la inteligencia.
Pero desde otra perspectiva, esto se asemeja mucho al bosque oscuro que describió Dà Liú: en ese bosque de inteligencia, cada cazador de élite nunca dispara primero.
Exponerse significa sin reservas, sin cartas, convertirse en blanco de otro cazador.
Nadie sabe quién disparará la primera bala mortal. Pero lo que sí es seguro, es que cada modelo que usas hoy, no es su verdadera forma.