Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Token-maxxing de todos: una carrera armamentística que nadie se atreve a detener
Autor: Socio de Wuyuan Capital Meng Xing; Fuente: LatePost
Hicimos un recorrido por Silicon Valley y descubrimos que incluso los que crean olas, están casi siendo ahogados por ellas.
La mañana del 24 de marzo de 2026, sentado en la audiencia del Demo Day del batch W26 de YC, cuando la quinta compañía subió a presentar, decidí dejar de tomar notas.
No porque no fuera importante, sino porque me di cuenta de que lo que anoté podría estar desactualizado el mes que viene.
De las más de cien empresas en esta generación, lo que hacen está muy concentrado: aproximadamente el 80% son agentes verticales, como ayudar a abogados a organizar documentos, distribuir tickets de atención al cliente, filtrar currículums para recursos humanos.
Si hubiera visto estos proyectos en octubre del año pasado, probablemente pensaría “bastante ingenioso”. Pero la cuestión es que, en estos cinco meses, el mundo ha cambiado.
Claude Code pasó de ser una herramienta más orientada a desarrolladores, a convertirse en una interfaz que casi cualquiera puede usar directamente. Tras el lanzamiento de Opus 4.6, toda la vibe de codificación se ha bajado a niveles mínimos.
Esos agentes verticales, antes de formar barreras de negocio, hoy en día, un ingeniero común, incluso yo mismo, puede hacerlos en un fin de semana. Ya han perdido valor de inversión.
El ciclo de un proyecto en YC dura tres meses. Este grupo entró en diciembre, y sumando la preselección, es como si hubieran sido elegidos hace cinco meses, “buenas empresas”. Pero en estos cinco meses, en la velocidad actual de iteración de IA, ya han ocurrido varias rondas de cambio de paradigma.
Cuando emprendí en 2012, la primera vez que obtuve una invitación a una entrevista en YC, en ese entonces YC dominaba casi por completo el acelerador, y las empresas seleccionadas representaban “la próxima tendencia”. Pero la competencia ha cambiado. En los últimos años, YC ha ido en reversa, convirtiéndose gradualmente en un lagging indicator (indicador rezagado).
El sistema de batch de YC, que en la era de internet móvil funcionó durante más de una década con éxito, fue diseñado para un mundo más lento.
Este año y medio en la industria de inversión de riesgo, aproximadamente cada trimestre visito Silicon Valley. La última vez fue en octubre del año pasado. Antes, cada visita me parecía que los cambios eran rápidos, pero esa “rapidez” se percibía mes a mes.
Ahora, hay que seguir la velocidad “semanal”.
Una noche, durante la cena, un amigo que trabaja en post-training (post-entrenamiento) soltó una frase:
“Me doy cuenta de que Silicon Valley ya no puede seguirle el ritmo a sí misma.”
Token-maxxing de todos: una carrera armamentística que nadie se atreve a detenerse
Hace medio año, si alguien me hubiera dicho que los decenas de miles de ingenieros de Meta usan productos de la competencia para programar, pensaría que era una broma.
Pero es cierto. Todo Meta, todos usan Claude Code. No es una startup, no es un equipo experimental, sino una compañía valorada en billones.
Ya no importa la seguridad del código, el presupuesto de tokens se ha explotado, las tablas de clasificación se han encendido, todo Silicon Valley está invirtiendo sin costo en IA. Pero, ¿qué pasa después de invertir?
Primero, la seguridad del código. Hace medio año, esto era impensable, porque el código es el activo más importante de una empresa. ¿Cómo dejar que la API de otra compañía toque eso? Meta pensó lo mismo inicialmente. Crearon algo llamado myclaw para resolverlo. Un amigo de Meta me dijo que desarrollaron un producto de codificación, pero “no era usable, nadie lo usaba”. Cuando nadie lo usó, tuvieron que relajar las reglas: mientras no involucre datos de clientes, pueden usar Claude Code sin problema.
Luego, las reuniones internas sobre cómo volverse una organización nativa de IA, capacitaciones, evaluaciones. La seguridad del código y del uso, esas líneas rojas que antes eran sagradas, ahora se relegan al final, primero hay que acelerar la eficiencia.
Por seguridad, Google prohíbe a la mayoría de sus empleados usar Claude Code o Codex, pero DeepMind es una excepción. Los equipos responsables de Gemini y aplicaciones internas usan Claude Code.
Google también ha hecho esfuerzos: lanzaron una herramienta interna de codificación llamada Antigravity, y en febrero afirmaron que aproximadamente el 50% del nuevo código de la compañía ya era generado por IA.
Pero aún así, los de DeepMind siguen usando Claude Code. La razón principal es que Anthropic les ha hecho una implementación privada, confiando en que sus modelos de inferencia y entrenamiento corren en TPU en Google Cloud, y hay esa confianza. Pero Meta y otros gigantes tecnológicos no tienen esa relación. Han dejado la seguridad del código de lado. Todos apuestan a acelerar.
La seguridad del código es solo la primera bandera que cae. La segunda es el presupuesto de tokens.
En varias startups nativas de IA en Palo Alto, un ingeniero tiene un presupuesto anual de unos 20 mil dólares en tokens. No es un número raro, lo sorprendente es que ese costo ya se acerca al salario de un ingeniero top. Parece que las empresas usan IA para reducir costos de personal, pero en realidad, el costo total no ha bajado, solo han cambiado el gasto de mano de obra por tokens.
Meta es la más extrema en esto. Crearon un ranking interno de consumo de tokens: quien más use, aparece en la lista, y los últimos podrían ser despedidos. Por eso, los empleados de Meta incluso compiten por un título no oficial llamado “token legend”.
Pero, al mismo tiempo, Meta ha despedido a más de diez mil personas en dos rondas este año. Mientras todos usan Claude Code para acumular tokens, despiden a mucha gente.
Estas dos cosas no son contradictorias, sino dos caras de la misma moneda.
Visité una empresa de serie C, cuyo CTO me mostró Slack lleno de agentes en ejecución, varios Cursor en paralelo, y otra ventana de Claude Code para coordinar. La ansiedad más común entre programadores ahora es: antes de dormir, si no saben qué harán sus agentes, se sienten muy nerviosos.
¿Realmente han aumentado tanto la productividad? Desde finales del año pasado, muchos CTOs de motores de inferencia y bases de datos me cuentan emocionados: “cien veces más ingenieros”, “diez veces más eficiencia”. Antes, 60 personas podían hacer en un año lo que ahora, con Claude Code, en una semana hacen dos personas.
Yo también me emocioné al principio, pero luego me calmé y me pregunté: si la eficiencia aumenta 100 veces, ¿los ingresos de la empresa también aumentan 100 veces? ¿O la expansión del producto también? No puede ser que una mejora de “100 veces” termine en reducir empleados, ¿verdad?
No obtuve una respuesta clara. La realidad es que, en términos de ingresos, esa eficiencia multiplicada solo se refleja en un 50% o en una vez.
¿En qué se diferencia? Nadie puede explicarlo aún.
“Usar tantos tokens debería hacer que la empresa mutara genéticamente en otra, pero no sé en qué se convertirá.”
Un fundador con experiencia en ventas B2B me dijo que su equipo de 16 personas, con solo dos vendedores, logró en 12 meses llegar a 30 millones de dólares en ARR, todo gracias a codificación con IA. Casos así se ven de vez en cuando. Pero, en la mayoría de los casos, las startups crean más cosas, pero esas cosas no tienen product-market fit (PMF, ajuste producto-mercado).
En Silicon Valley, ahora se prueba con 100 enfoques diferentes usando vibe coding, en lugar de solo 10, para ver cuál funciona. Pero, ¿quién puede captar la próxima tendencia? Todavía es muy difícil.
Un ejemplo contrario que me impactó fue en Anthropic. Pregunté a un amigo de allí: ¿cuál es el escenario más doloroso al usar agentes? Él dijo que es en oncall (respuesta en tiempo real).
Un escenario típico de oncall: si la API de Claude responde más lentamente, o un nodo de inferencia falla, o un prompt genera salidas anómalas, el ingeniero de oncall debe localizar rápidamente el problema, determinar si es un bug, un problema de recursos o una anomalía del modelo, y decidir cómo arreglarlo.
Anthropic, siendo la empresa más fuerte en coding agents, tiene esa capacidad muy desarrollada, pero su propio oncall sigue siendo difícil de usar.
Así está la realidad en abril de 2026: la máquina de vapor ya fue inventada, pero a veces no corre más rápido que un carro. Lo importante es que todos saben que la máquina de vapor eventualmente será más rápida, por eso invierten sin parar: ya no importa la seguridad del código, el presupuesto de tokens se ha explotado, las tablas de clasificación se encienden. Pero, ¿cuándo la máquina de vapor superará realmente al carro? Nadie lo sabe, pero nadie se atreve a detenerse a esperar ese día.
Porque el costo de detenerse puede ser mayor que gastar tokens de más.
Además, el consumo de tokens probablemente no crece de forma lineal. Esto me recuerda mi experiencia en conducción autónoma: en 2021, en Shanghai, logramos por primera vez una conducción autónoma continua de 5 horas sin intervención. Pensé que era un gran avance. Antes, el número de autos en prueba crecía lentamente, de 10 a 15, a 20, pero después de ese punto, rápidamente llegaron a 100, 1000. Hoy, los agentes de codificación están en una etapa similar.
En 2021, en Shanghai, la conducción autónoma de Didi logró por primera vez 5 horas continuas sin intervención, un hito en China. La foto muestra a Meng Xing, entonces COO de Didi Autonomous Driving, conversando con Sebastian Thrun, “padre de los autos sin conductor” de Google, en 2021.
METR es una institución de investigación en California que evalúa la capacidad de codificación de IA. El año pasado propusieron un indicador: medir cuánto tiempo puede completar una tarea un agente de IA con un 50% de éxito (según el tiempo que un experto humano tarda en hacerlo). En marzo de 2025, cuando lanzaron Claude 3.7 Sonnet, ese número era 50 minutos; a finales de 2025, Claude Opus 4.6 logró 14.5 horas. En los últimos dos años, el ciclo de duplicación de este indicador se ha reducido de 7 a 4 meses. Cuando la fiabilidad del agente suba un nivel más, el consumo de tokens dejará de aumentar un 50% anual y se disparará de repente a otra escala.
Una predicción consensuada entre amigos: para fin de año, muchas empresas (incluidas grandes tecnológicas) solo necesitarán el 20% de su personal.
El equipo de xAI se derrumba, y los que construían cohetes ahora construyen modelos
En un restaurante en Mountain View, pasada las nueve de la noche, un amigo que trabajó mucho tiempo con Elon Musk se sentó frente a mí. Hablamos más de tres horas, y al recordarlo, parece que no dijo nada bueno de Musk.
Un detalle: le pregunté cómo era su ritmo diario en xAI, tras tres años allí. Dijo que en esos tres años casi siempre vivió en la empresa, sin decorar su casa, ni siquiera compró cama. Dormía en un sleeping pod (cápsula de descanso), como en un hostal. Le sugerí que, con esas acciones, ya que tiene acciones enormes, al menos comprara una cama. Él sonrió.
El trabajo en xAI es famoso en Silicon Valley, pero ahora, el 90% del equipo ya se fue. Tienen un grupo de ex empleados, donde siguen sumando gente.
El detonante fue que Tony Wu fue despedido, y en cadena, según un insider, “otras empresas pueden tardar medio año en que sus ejecutivos renuncien, pero en xAI solo un mes”. Algunos ya percibían la insatisfacción de Musk en octubre pasado, pero no esperaban que fuera tan rápido.
Ahora Musk está trayendo gente de SpaceX y Tesla para tomar el control de xAI: “los que construían cohetes ahora construyen modelos”.
La insatisfacción de Musk viene de que invirtió mucho dinero y recursos, y Grok no ha logrado entrar en primera línea. ¿Por qué? Es la pregunta que todos en xAI se hacen. La respuesta, más simple de lo que parece, la dio un amigo: “el equipo es muy fuerte, trabajan muy duro, pero la gestión de manufactura no funciona para una empresa de grandes modelos”.
Yo llevo ocho años en conducción autónoma y tengo algunas ideas. Musk, con SpaceX y Tesla, en esencia, hace ingeniería de sistemas: cadenas largas que involucran software, hardware, cadena de suministro, cada parte con espacio para innovación, pero en definitiva, es un problema de ingeniería de extremo a extremo.
Lo que sabe hacer muy bien es identificar los puntos clave en esa cadena larga y acortar los tiempos al máximo para avanzar. La cascada de motores de cohetes, el reuso y aterrizaje, son productos de esa mentalidad.
Pero en xAI, no está haciendo ingeniería de sistemas. Ahora, hace tres cosas: primero, invierte en un enorme clúster de GPU (y ahora todos bromean diciendo que xAI, que era un neo lab, ahora parece un neo cloud, y le da potencia a Cursor); segundo, fija plazos de entrega en modo sprint; y tercero, personaliza algunas características del producto. Es centrarse en unos pocos puntos, no en una planificación completa.
Los que hacen conducción autónoma saben que en la fase final, la decisión sobre quién lidera qué, se vuelve un conflicto central. Se necesitan decisiones a nivel CTO en software, infraestructura y hardware, pero nadie entiende los tres campos a la vez. La mejor estrategia es que, aunque el fundador no domine todos, sepa equilibrar recursos y priorizar en cada etapa: primero software, luego infraestructura. Eso es tener una visión global.
El problema de xAI es que no tiene esa visión, solo corre contra el reloj. Si no fuera tan intenso, los equipos inteligentes podrían autoarreglarse, y con tiempo, encontrarían su ritmo de colaboración. Pero la gestión de Musk, con esa presión extrema y sin una planificación global, hace que se deshagan. Los responsables de cada área defienden sus prioridades, sin una coordinación general.
La razón por la que SpaceX y Tesla han tenido tanto éxito es que en esas industrias, Musk casi no ha enfrentado competencia de igual nivel. Él compite consigo mismo. Pero en IA, no es así. La competencia es feroz, incluso OpenAI puede ser robada por Anthropic.
Un cofundador de xAI me dijo el año pasado que no esperaba dos cosas: primero, que la competencia sería tan brutal; y segundo, que las oportunidades de innovación en aplicaciones de IA serían tan pocas, que todo sería devorado por los modelos.
El ascenso de Anthropic ha sido la mayor reversión dramática en la industria de IA en el último año. También cambió por completo el foco de la batalla: hace un año, todos competían por usuarios de consumo y generación de videos; ahora, (de forma temporal) la lucha está en toB y codificación.
Por supuesto, la historia de xAI también es una historia de “dinero que llega demasiado rápido y en exceso, ¿qué pasará?”
Creo que los amigos que dejan xAI hoy, no se arrepentirán de haber entrado. xAI ha sido la leyenda más rápida de enriquecimiento en Silicon Valley. Desde su primera ronda de financiación de unos pocos miles de millones, hasta su fusión con SpaceX y convertirse en un gigante de 2.5 billones de dólares, en solo un año. Y sus 9 cofundadores, casi todos multimillonarios, con ingenieros principales que tienen decenas de millones o incluso más de 100 millones de dólares. El dinero en Silicon Valley es realmente inmenso. Si vuelven a fundar, tendrán la confianza suficiente para seguir en lo que les interesa, en lugar de buscar ganancias rápidas.
Ingenieros ansiosos, investigadores aún más ansiosos
Hablar con ingenieros ahora genera una extraña complicidad: todos admiten que ya no programan mucho, pero fingen que no es gran cosa, porque creen que serán armados con IA y eliminarán a los ingenieros que no se adapten.
Hoy, el 80% de las habilidades clave de los desarrolladores ya son reemplazadas por modelos, y los que quedan, solo necesitan vigilar que no fallen. Pero esa vigilancia, en sí misma, pronto podría no ser necesaria.
Más radical aún: la “organización nativa de IA” suena muy sexy—que cada departamento optimice sus flujos, digitalice las partes que puedan ser intervenidas por IA, y las convierta en skills. Pero en esencia, es una auto-destilación humana: convertir tus capacidades en habilidades de máquina, y que la empresa tenga esas habilidades. En realidad, eso ya es IA. La pregunta es si eso implica despidos. Hoy, Meta ya está haciendo eso.
Aunque todos compiten por tokens, se percibe una ansiedad subyacente en Silicon Valley.
Y lo que más me sorprendió, es que esa ansiedad se está extendiendo a los investigadores.
Los investigadores son la élite, no solo “estudios”, sino quienes en grandes empresas de modelos (OpenAI, Anthropic, DeepMind) diseñan algoritmos y entrenan modelos. La diferencia con los ingenieros es: los ingenieros “hacen cosas”, programan, despliegan, optimizan; los investigadores “pensar qué hacer”: proponen nuevos métodos, diseñan arquitecturas, corren experimentos para validar hipótesis.
Pero ahora, incluso el trabajo de los investigadores está siendo automatizado. Eso es lo que hacen en DeepMind: usar modelos para entrenar otros modelos, y esto ha sido la gran tendencia en IA este año. Lo que se elimina primero son los ingenieros, y para fin de año, los investigadores también empezarán a ser reemplazados.
Esto ya no es un concepto nuevo. Andrej Karpathy inició con su auto-investigación (auto research), y hoy, muchas herramientas y frameworks de científicos de IA avanzan en esa dirección. Pero la mayoría solo llega a “publicar papers”: IA que corre experimentos y escribe artículos, pero la decisión final la toman humanos.
Las empresas como OpenAI, Anthropic y Google quieren ir más allá: que el ciclo completo sea la actualización del modelo, no solo mejoras en detalles, sino que IA misma encuentre los próximos saltos paradigmáticos. Si logran eso, será una verdadera sustitución del investigador. Google DeepMind ya lleva más de un año haciendo esto: que el modelo decida qué experimento hacer, evalúe los resultados y siga el camino más prometedor, entrenándose a sí mismo para la próxima generación.
Y los investigadores tienen más motivos para temer: son caros. En todo el mundo, solo hay unos pocos miles, con salarios que pueden llegar a millones o incluso decenas de millones de dólares anuales.
“En el futuro, 10 personas harán el trabajo de 100, ganando solo 20% del salario, y 90 quedarán desempleadas.”
Y las reducciones de plantilla reales serán mayores que los números aparentes. Muchas empresas primero recortan a sus proveedores externos: en India y Filipinas, que antes atendían atención al cliente, etiquetado de datos, back-office, serán las primeras afectadas. La “cadena de servicios” que sustentaba el crecimiento económico en países en desarrollo, puede estar siendo eliminada por IA.
Todo Silicon Valley está atento a Meta. Si su experimento funciona—sin pérdida de ingresos y con mayor eficiencia—otras grandes empresas seguirán rápidamente, y los despidos pasarán de casos aislados a una tendencia general. Además, el proceso de despido se autoacelera: al principio, nadie se atreve a despedir por miedo a dañar la moral; pero, una vez que se vuelve norma, se hace más rápido y sin remordimientos.
Pero, al despedir puestos antiguos, también aparecen nuevos roles.
Muchas startups están creando un nuevo perfil llamado “AI builder”: que combina funciones de product manager, ingeniero frontend y backend. También hay roles que combinan científicos de datos y ingenieros de ML, y otros que unen escritura, publicidad y operaciones en un solo perfil.
Las empresas en Silicon Valley demandan mucho estos nuevos perfiles, pero el problema principal es que nadie sabe cómo contratarlos. No se puede filtrar con currículum, porque estos roles no existían antes, y sus habilidades están en sus propios proyectos. Tampoco se puede evaluar solo con código en vivo, porque la capacidad clave es “estética + uso de IA”. Por eso, ya hay startups que generan entornos simulados automáticamente, donde los candidatos usan IA en tiempo real para completar tareas. Es como las pruebas de programación, pero en un formato completamente nuevo.
Cuando IA pueda hacer todo, el valor humano cambiará de “qué sabe hacer” a “qué vale la pena hacer y qué no”.
Dos valoraciones en una ronda de financiación: Nvidia en cada “mesa” debe apostar fuerte
Hablando de los roles que han sido reemplazados—ingenieros, investigadores, financieros—hay uno que no solo no ha sido reemplazado, sino que en esta reconfiguración se vuelve cada vez más como el jefe oculto.
Este mundo de innovación distribuida, en realidad, está muy centralizado.
Y ese centro es Nvidia.
Pensaba que la escasez de chips se había aliviado en el último año. En cierto modo, sí, en 2025, algunas empresas apoyadas por Nvidia, como neo cloud (nuevos proveedores de GPU en auge en la ola de IA), tuvieron dificultades para financiarse, y algunas incluso vendieron en ese momento. Pero ahora, veo que la escasez ha vuelto, y de forma aún más exagerada.
Una señal concreta: si hoy puedes ofrecer un API estable, como Claude, con un nivel de estabilidad en el 99 percentil, puedes vender esa API a dos o tres veces el precio oficial.
Tras la demanda explosiva de Anthropic, los cortes en API aumentan, lo que afecta a muchos productos basados en Claude.
Antes, hacer un router (servicio de enrutamiento) era “ser más barato que la API oficial para tener volumen”. Ahora, la lógica se invirtió: la estabilidad se convirtió en un recurso escaso. Varias startups están ganando mucho dinero con esto, y en Silicon Valley surgen mini Coreweave / Nebius en masa.
Y no solo es un problema de GPU: Elad Gil escribió recientemente una reflexión que comparto: la capacidad de los fabricantes de memoria (Hynix, Samsung, Micron) para expandirse tomará al menos dos años. Esto significa que, hasta 2028, ninguna IA podrá escalar mucho más solo con más hardware. La restricción de capacidad refuerza la concentración en el mercado de grandes modelos—no por falta de esfuerzo, sino por la lentitud de los ciclos de fabricación física.
La estructura de poder es clara: quien tenga chips, domina. Quien tenga chips, los decide Nvidia. Las empresas listadas como CoreWeave, Lambda, Nebius, están respaldadas por Nvidia.
La estrategia de Nvidia es más profunda de lo que pensaba. Los inversores de Reflection me dijeron que esta neo lab empezó financiándose para hacer codificación, pero el fundador fue a ver a Huang Renxun, y éste le dijo: “Deja de hacer codificación, ven a hacer ‘el DeepSeek de EE.UU.’, crea modelos open source en EE.UU., te financio y te doy chips”. Reflection cambió radicalmente.
El mercado de capitales en EE.UU. también ha cambiado: en una misma ronda, se asignan dos valoraciones diferentes. Los inversores que entraron temprano, en la valoración baja; y Nvidia, que no escatima, en la valoración alta. Este esquema ya empieza a verse en China también.
Pero, por más que Nvidia quiera controlar la distribución, no puede controlar lo que no existe.
La resistencia a los centros de datos en EE.UU. está creciendo. Actualmente, unos 100 proyectos de data centers enfrentan obstáculos, y 40 de ellos se cancelarán. Maine aprobó una ley que prohíbe la construcción de data centers. Un pueblo aprobó un proyecto de 6 mil millones de dólares, y la mitad de sus miembros fueron destituidos en una votación nocturna, con nuevos miembros cuyo único objetivo era cancelar esa decisión.
La escasez de capacidad no se debe a que el producto sea malo o los usuarios escasos, sino a que el mundo físico no puede seguir el ritmo del mundo digital.
Es otra forma de “no poder seguir”.
El sistema de valoración en Silicon Valley está siendo reescrito
Primero, un número.
El PIB de EE.UU. es aproximadamente 30 billones de dólares. OpenAI y Anthropic, en sus actuales tasas de ingreso anual, alcanzan unos 30 mil millones de dólares cada una, o sea, cada una representa el 0.1% del PIB. Si a fin de año ambas alcanzan 100 mil millones, sumando servicios en la nube y otros ingresos, la IA representará cerca del 1% del PIB estadounidense. De casi cero a 1% en solo unos años.
Este ritmo es sin precedentes. Pero lo extraño es que, cuanto más rápido crecen, más desconcertados están los inversores sobre cómo valorar. La valoración en Silicon Valley está colapsando ante este crecimiento acelerado.
Hablé varias veces con amigos del mercado secundario, y uno de los términos que más repiten es “re-rationalization” (re-racionalización de las valoraciones).
En los últimos años, al invertir en IA, la lógica era valorar por flujos futuros: no importa si pierdes dinero ahora, apuesto a que en tres o cinco años, tu ARR será alto. Pero ahora, ese marco está fallando.
El problema está en el modelo básico de valoración DCF (descuento de flujo de caja). Normalmente, predices 10 años de flujo, y añades un valor terminal, que supone que la empresa seguirá operando estable. Ese valor terminal suele representar el 70-80% del valor total.
Pero ahora, dos cosas cambian: primero, solo puedes predecir 3 años, o incluso menos, porque después de ese tiempo, el sector puede cambiar radicalmente; segundo, el valor terminal no se puede calcular, porque la premisa de estabilidad no se cumple. La IA puede cambiar todo en cualquier momento, y “estabilidad” ya no es una hipótesis válida.
Un amigo que invierte en secundario me dijo una metáfora: las empresas que no están en la vía principal de IA, son como esperar una “bomba nuclear”: sabes que será destruida, solo no sabes cuándo. Entonces, en la valoración, no deberías enfocarte en “qué pasaría si no fuera destruida”, sino en “qué tan rápido responderías si fuera destruida”. Es otra lógica de valoración.
SaaS fue la primera en ser reevaluada por Wall Street. En 2023, para recuperar inversión, Snowflake necesitaba casi 100 años de flujo de caja libre. Hoy, su valoración se ha reducido a la mitad, y lo mismo pasa con ServiceNow, Workday. Esto solo empieza.
Y, en sentido inverso, solo las principales empresas de grandes modelos parecen aptas para valoración DCF, porque su crecimiento parece más estable y menos vulnerable a la destrucción. No serán “explotadas”, sino que seguirán creciendo en sus límites.
Antes, las startups decían: “pago menos salario, pero te doy opciones, y en 15-20 años valdrán mucho”. Pero si ese escenario no se cumple, la reacción más racional del empleado será: “No quiero opciones, dame dinero en efectivo ahora”.
Y eso, a su vez, cambiará la estructura de costos y la lógica de financiamiento.
Los VC también sufren. En los últimos 3-6 meses, casi todos los fondos en Silicon Valley invirtieron en al menos un neo lab, en investigadores de renombre que levantaron varias centenas de millones. Pero ahora, todos piensan que fue un poco impulsivo y caro. ¿Por qué invirtieron? Porque si esa empresa logra algo, el crecimiento será tan rápido que parecerá barato en ese momento.
Un inversor me dijo claramente: “o va de cero a 100, o de cero a cero. Mejor apostar a un neo lab con posibilidades infinitas, que a una ronda A cara”.
Antes, todos pensaban que 1 dólar en ARR valía 1 dólar. Pero ahora, esa equivalencia se rompió.
Los agentes verticales tienen múltiplos bajos (alrededor de 5), los agentes generalistas más altos (10), y los modelos, los más caros (20-30 veces ARR, por ejemplo, Anthropic con 30 mil millones en ARR y 800 mil millones en valoración, 26.7 veces). Hace un año, pensaba que solo multiplicando ARR por un factor único, se podía valorar. Pero esa fórmula ya no funciona.
La naranja amarga y la lista negra de IA
Silicon Valley atraviesa una profunda crisis de seguridad.
En este viaje, escuché varias veces a amigos hablando en serio: comprar Bitcoin, construir búnkeres, poner cristales blindados en casa. No es broma.
Últimamente, en Silicon Valley, está de moda plantar naranjos amargos, porque sus ramas tienen espinas de 4 pulgadas, y cualquiera que intente trepar, paga el precio.
El Wall Street Journal reportó una “mansión fortaleza” de 15 millones de dólares: en un macetero de concreto, una fila de naranjos amargos, detrás un foso, y más allá, sistemas láser de detección de intrusos. La puerta principal tiene 3 pulgadas de acero sólido con 13 cerraduras, y en el interior, una sala de refugio con una puerta de 2000 libras, todo diseñado para la defensa.
Empresas que ofrecen seguridad residencial para CEOs, alcanzaron su mayor crecimiento desde 2003. Especialmente después del asesinato del CEO de UNH en Manhattan, esta tendencia se aceleró.
Y ahora, la violencia ha llegado a las casas de los magnates de IA.
El 11 de abril, a las 4 am, un joven de 20 años con sudadera Champion, desde Texas, viajó a California con un bidón de gasolina, y en la puerta de la mansión de Sam Altman, valorada en 27 millones de dólares, lanzó una bomba de gasolina y la prendió.
Una hora y media después, apareció en la sede de OpenAI, rompió una ventana con una silla y gritó: “Voy a