Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
El poder de cómputo se está concentrando nuevamente: después de la reducción de precios de DeepSeek, ¿quién controlará la infraestructura básica de la IA?
nulo
——Empezando por el discurso de Gonka en LA Hacks 2026
26 de abril, DeepSeek anuncia nuevos precios para la serie API V4: los precios de cache de entrada en toda la gama se reducen a una décima de su precio de lanzamiento, y tras una oferta limitada en la versión Pro, el coste de procesamiento de un millón de tokens baja a 0,025 yuanes—casi cien veces más barato que hace un año. El sector de capacidad de cálculo en las acciones A alcanza el límite máximo ese día, y el ánimo del mercado se dispara.
Pero tras los vítores, hay un problema que nadie discute abiertamente: a medida que los modelos se vuelven cada vez más baratos, la potencia de cálculo necesaria para ejecutarlos se concentra cada vez más.
Los datos no mienten. En el cuarto trimestre de 2025, los cuatro principales proveedores de nube —Microsoft, Amazon, Meta y Google— aumentaron su gasto de capital en conjunto un 64% interanual, alcanzando 118.600 millones de dólares; se espera que en 2026 ese gasto total crezca un 53% interanual más, llegando a 570.800 millones de dólares. Google también elevó en un 50% su objetivo de envío de chips TPU en 2026, hasta 6 millones de unidades. Los plazos de entrega de la serie H100 de Nvidia ya alcanzan varios meses en algunos mercados.
El poder de fijación de precios en la capa de modelos se inclina hacia los desarrolladores, pero el control de la capacidad de cálculo se concentra a mayor velocidad en unos pocos gigantes. Es una contradicción oculta pero profunda en la era de la IA.
En este contexto, el 24 de abril de 2026, los cofundadores de Gonka, Daniil y David Liberman, subieron al escenario principal en LA Hacks 2026. Este hackathon universitario, el más grande de UCLA ese año, contó con los hermanos Liberman como ponentes principales, ante cientos de ingenieros de élite que pronto ingresarán en la industria. La pregunta que lanzaron, en este momento, resulta especialmente clara: ¿aún es posible la descentralización de la capacidad de cálculo?
La lógica de reducción de precios de DeepSeek V4 parece, en apariencia, un beneficio derivado del avance tecnológico—el nuevo mecanismo de atención comprime la dimensión Token, y junto con la atención dispersa DSA, reduce significativamente la demanda de cálculo y memoria. Pero la continuidad en la bajada de precios depende de que en algún lugar exista suficiente capacidad de cálculo, y que esta sea lo bastante barata.
La realidad es que esa fuente de capacidad de cálculo «suficientemente abundante» se está concentrando rápidamente en unos pocos nodos a nivel global. Michael Hurlston, CEO de Lumentum, líder en comunicaciones ópticas, afirmó recientemente que, según la tendencia actual, la capacidad de producción de la compañía estará casi agotada para 2028. Esto no es solo un problema de una empresa, sino una tensión colectiva en toda la cadena de suministro de infraestructura de IA, que se expande rápidamente para satisfacer la demanda.
Daniil, en su discurso en LA Hacks, hizo una comparación simple pero poderosa: la potencia de cálculo de la red de Bitcoin ya supera la suma de los centros de datos en la nube de Google, Microsoft y Amazon—pero, ¿para qué usan esa potencia? Para resolver un hash que nadie necesita responder. La capacidad GPU ociosa en todo el mundo es similar: las tarjetas gráficas en las máquinas de los jugadores, los servidores en los centros universitarios, los recursos sobrantes de pequeños y medianos proveedores de nube—todo ello en gran volumen, pero sin mecanismos de coordinación, no puede ser aprovechado para inferencia en IA.
Gonka intenta resolver precisamente ese problema de coordinación—utilizando un mecanismo de incentivos basado en prueba de trabajo, para organizar la GPU ociosa dispersa en todo el mundo en una red capaz de aceptar tareas reales de inferencia en IA.
La bajada de precios de DeepSeek ha generado un amplio debate en la internet china sobre la «igualdad en IA». Pero hay un detalle que se pasa por alto: la reducción afecta al «precio de llamada», no al «costo de cálculo». Con la escala de aplicaciones de IA en aumento, el crecimiento en volumen de llamadas de inferencia es exponencial—según predicciones del sector, para 2026, la inferencia representará aproximadamente dos tercios del consumo global de capacidad de cálculo en IA.
¿Y qué implica esto? Por cada reducción de un orden de magnitud en el precio de llamada, la demanda total de capacidad de cálculo solo aumentará, no disminuirá. La «democratización» de los grandes modelos, en cierto modo, acelera la concentración de la capacidad de cálculo—porque solo los actores con gran escala de recursos pueden mantener operativos los servicios de inferencia con márgenes extremadamente bajos.
Se está formando así una especie de bloqueo estructural: quien controle la capacidad física en la inferencia, controlará la verdadera infraestructura de la era de la IA. Desde esa perspectiva, la utilidad de una red descentralizada de capacidad de cálculo no es solo reducir un 50% los costos, sino ofrecer una alternativa estructural antes de que la concentración sea definitiva.
Los participantes en LA Hacks—ingenieros y product managers de las mejores universidades de California—pronto enfrentan una decisión no romántica: ¿sobre qué capa de capacidad de cálculo construir su producto?
¿En qué servidores se ejecuta la inferencia de tu IA?
¿Tienes la capacidad de migrar si la plataforma ajusta sus precios o políticas de acceso?
¿El crecimiento de usuarios que ayudas a construir, te genera valor o solo entrega fichas a la plataforma?
Estas preguntas ya las vivieron los desarrolladores en la era Web2: cuando el destino de la aplicación se vincula profundamente a las reglas del algoritmo o la distribución de la plataforma, «ser independiente» se vuelve un concepto que hay que redefinir constantemente. La dependencia de la infraestructura en la era de la IA será una lógica similar, pero con costos de cambio aún mayores, reforzando el efecto de bloqueo.
El hackeo, como forma, tiene su ironía: en 36 horas, construir con los recursos mínimos y en el menor tiempo posible algo funcional—esto es exactamente lo que busca la motivación de los mecanismos de incentivos en redes descentralizadas. Daniil, en su discurso en LA Hacks, no solo habla de Gonka, sino que también plantea una pregunta a estos futuros creadores: ¿están ayudando a acelerar esta tendencia de centralización, o están creando nuevas posibilidades?
Gonka reorienta la prueba de trabajo hacia la inferencia en IA, haciendo que casi el 100% de la potencia contribuida en la red corresponda a tareas reales. Este mecanismo requiere que las tareas de inferencia sean verificables y reproducibles—dado el mismo modelo, la misma semilla aleatoria y los mismos datos de entrada, cualquier nodo puede reproducir y verificar el resultado. Este es el principal desafío técnico para que Gonka pase de prototipo académico a red operativa.
Desde un punto de vista económico, el valor del token queda naturalmente anclado al costo físico de la capacidad de cálculo, no a la especulación de liquidez. Los mineros que aportan potencia reciben recompensas, y los desarrolladores que llaman a esa potencia pagan por ella, creando un ciclo de incentivos que no depende de intermediarios.
Por supuesto, la viabilidad técnica es solo una parte. La cuestión más difícil es si, en un contexto de crecimiento acelerado de la demanda y con grandes jugadores invirtiendo miles de millones, una red de capacidad de cálculo distribuida, organizada por la comunidad, puede escalar para competir en serio.
Los datos iniciales de Gonka ofrecen un punto de referencia: en menos de un año desde su lanzamiento, la potencia agregada en la red pasó de 60 H100 a más de 10,000—un crecimiento impulsado por la participación voluntaria de cientos de nodos independientes en todo el mundo, sin una coordinación centralizada. Esto no prueba que el tamaño sea una realidad, pero sí indica que los incentivos están funcionando para impulsar un crecimiento temprano.
Históricamente, el control de la infraestructura se ha consolidado en las fases iniciales—como en la era del ferrocarril, la internet o la movilidad. En cada caso, antes de que los estándares se solidificaran, algunos lograron insertarse; y después, quienes llegaron tarde, vieron cómo se reducía su participación.
¿En qué fase está ahora la infraestructura de capacidad de cálculo en IA? Según las previsiones de los cuatro grandes proveedores de nube, con un gasto de capital de 570.800 millones en 2026, la concentración ya se acelera; pero, en la práctica, todavía existen recursos no integrados en el mercado. Esa brecha es el espacio en el que una red descentralizada puede existir estructuralmente.
Daniil citó en su discurso un paralelo: tras la burbuja de internet en 2000, no quedó solo un montón de ruinas, sino una red global de fibra óptica que sustentó la economía digital durante veinte años. Tras la caída de la fiebre de inversión en infraestructura de IA, los protocolos y mecanismos de incentivos que queden serán la base del próximo ciclo. La cuestión es qué protocolos tienen una lógica sólida que pueda resistir la presión y seguir funcionando.
No se trata solo de un proyecto específico, sino de un problema que toda la vía descentralizada de IA debe afrontar: ¿el diseño de gobernanza puede resistir la erosión del control centralizado? ¿Los incentivos seguirán siendo efectivos a escala? ¿La descentralización de la red de capacidad de cálculo puede sostenerse en aspectos técnicos, en la emisión de tokens y en las decisiones de actualización?
Epílogo
La bajada de precios de DeepSeek reavivó la narrativa de la «democratización de la IA». Pero la democratización en inferencia y la infraestructura descentralizada son dos cosas distintas. La primera está en marcha; la segunda, dependerá de cuánto se dediquen en los próximos años a resolver estos problemas como un desafío técnico, y no solo como una narrativa atractiva.