Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Informe de semiconductores de Morgan Stanley 2026: compra de empaquetado, compra de pruebas, compra de chips chinos, evitar las rutas tradicionales
nulo
Autor: Conocimiento profundo y observaciones diversas
Fuente: Morgan Stanley Investigación de Semiconductores en Gran China
Fecha del informe: 8 de mayo de 2026
Uno, conflicto central
El gasto de capital en IA global supera las expectativas de expansión, pero la oferta de potencia de cálculo está evolucionando de “NVIDIA domina todo” a una convergencia de “GPU + ASIC + chips locales chinos”. El conflicto central no es si la demanda es suficiente, sino quién puede captar la cuota de esta expansión, y qué tan rápido se marginan los semiconductores no AI en este proceso.
Dos, conclusiones clave (ordenadas por importancia en las transacciones)
Tres, desarrollo profundo por segmentos
3.1 Encapsulado avanzado (CoWoS / SoIC) — La línea principal de mayor certeza
【Conflicto central】 Demanda explosiva, pero la capacidad solo TSMC puede reemplazar; el encapsulado no TSMC (Amkor/ASE/UMC) enfrenta presión de cuota.
【Impulso clave】 Los cuatro principales proveedores de nube (AWS/Google/Microsoft/Meta) en Q1 2026 aumentaron su gasto de capital en un 95% interanual, con un gasto anual previsto de 685 mil millones de dólares, impulsando directamente la demanda de CoWoS/SoIC.
Datos y hitos clave:
NVIDIA consume aproximadamente el 59% de CoWoS, Broadcom alrededor del 20%, AMD aproximadamente el 9%
· El valor total de consumo de obleas de cálculo AI en 2026 es de aproximadamente 27,2 mil millones de dólares, alcanzando un máximo histórico
· Los ingresos por chips AI de TSMC representarán una CAGR del 60% entre 2024 y 2029, con más del 30% de los ingresos totales en 2026
【Ruta de transmisión】
Capex de los proveedores de nube → Pedidos de NVIDIA/Broadcom/Google TPU → CoWoS/SoIC como punto crítico → Mejora en el poder de negociación de TSMC → Proporción de ingresos AI en aumento continuo.
【Señales de transacción】
TSMC es la línea principal, sin necesidad de temporización, con una lógica de tenencia clara. SoIC será la segunda curva de crecimiento a partir de 2025, atentos a oportunidades en proveedores OSAT que ensamblan SoIC (como ASE).
3.2 Equipos de prueba (Handler / Socket / Tarjetas de sonda) — Valoración más baja, crecimiento más seguro
【Conflicto central】
Aumenta la complejidad de los chips, duplicando estructuralmente el tiempo de prueba, pero la reevaluación del TAM de equipos de prueba está muy atrasada.
【Impulso clave】
El tiempo de prueba por generación de chips GPU se duplica (Hopper 350s → Blackwell 700-1000s → Rubin 1200-1400s → próxima generación 1800-2000s); el número de pines en los sockets de prueba pasa de 1500 en teléfonos a 6000 en AI/HPC, y en la próxima generación a más de 10,000.
Datos clave:
· Tamaño del mercado global de Handler: 4.36 millones de dólares en 2023 → 6,6 mil millones en 2027, CAGR superior al 35%
· La demanda de prueba óptica CPO comenzará a escalar desde 2025, entrando en una fase combinada de prueba eléctrica y óptica en 2027 (Inserción 4i)
【Ruta de transmisión】
Aumento en tamaño/capas/complexidad de chips → Incremento en tiempo de prueba → Aumento en volumen y precio de Handler/Socket → Nuevas demandas de prueba óptica CPO → Inicio de la segunda curva de crecimiento.
【Señales de transacción】
Tres empresas con valoraciones más bajas y mayor certeza de crecimiento en la cadena de infraestructura AI, ideales para una asignación central a medio plazo. La cobertura de mercado insuficiente y los precios bajos hacen de esta la categoría más rentable actualmente.
3.3 Chips AI chinos (GPU/ASIC nacionales) — Irreversible a largo plazo, diferenciación clara a corto plazo
【Conflicto central】
El control de exportaciones impulsa la demanda de sustitución local, pero la madurez tecnológica y de producción en China varía; la clave es si pueden asegurar pedidos de grandes clientes.
【Impulso clave】
DeepSeek valida la viabilidad de inferencia de bajo costo → aceleración en la transición de proveedores de nube nacionales → expansión de producción en SMIC con proceso de 7 nm → ventajas TCO de chips nacionales (30-60% más bajos que NVIDIA) que generan retroalimentación positiva.
Tamaño y estructura del mercado:
Participación de mercado doméstico en 2026: Huawei 62%, Cambrian 14%, Kunlun 5%, T-Head 5%, otros 14%.
Comparación de las tres principales empresas en “Los diez dragones”:
【Ruta de transmisión】
Control de exportaciones → Sustitución local → Expansión en SMIC 7nm → Aumento en volumen de Huawei/Cambrian → Cambio de compras en proveedores de nube locales (ByteDance/Alibaba/Tencent) → Reducción en costos de inferencia → Explosión de más aplicaciones → Nueva demanda de potencia de cálculo.
【Señales de transacción】
Cambrian tiene la mayor certeza, siendo la opción preferida; Tianzhi ZhiXin tiene mayor flexibilidad pero aún no es rentable, con mayor riesgo. Huawei (no cotiza) es la variable de mayor competencia, su crecimiento de cuota ejerce presión indirecta sobre otros fabricantes nacionales, seguimiento continuo. Ventana temporal: 2026–2027, período clave para que los chips AI nacionales pasen de sustitutos a protagonistas.
3.4 Semiconductores no AI (consumo / automoción / control industrial) — Sesgo estructural bajista, recuperación débil no es recuperación fuerte
【Conflicto central】
La absorción de recursos en la cadena de suministro por sistemas AI, la recuperación de semiconductores tradicionales sigue siendo más lenta de lo esperado, y el mercado sobreestima la elasticidad de rebote.
【Impulso clave】
Capacidad de foundries / sustratos T-Glass / almacenamiento se inclinan hacia AI; los chips no AI están en cola, con costos de obleas y OSAT en aumento; los márgenes de las empresas de diseño de chips se ven presionados.
· Excluyendo GPU AI de NVIDIA y almacenamiento, el crecimiento de semiconductores no AI en 2026 se espera que disminuya notablemente
· Días de inventario de MCU aún en niveles históricos altos (pico en Q1 2025 y plano en Q4 2025); inventarios de principales fabricantes como STM/GD se digieren lentamente
· La utilización de foundries lógicas se espera que vuelva a 80% en la segunda mitad de 2026, con recuperación limitada
· SiC supera a GaN: se recomienda SICC (OW), con penetración de SiC que se espera supere el 50% en 2030; evitar InnoScience (EW), por depreciación de expansión.
【Señales de transacción】
Evitar exposición pura a semiconductores tradicionales, la base de MCU está en el fondo pero con recuperación débil, no apostar a una fuerte rebote. SiC es la única subdivisión tradicional que merece atención.
3.5 Almacenamiento (HBM / NAND / DDR4) — Alta fragmentación interna, señales que requieren discernimiento
【Conflicto central】
La demanda de HBM impulsada por IA es clara; el aumento de precios en DDR4/NAND es por desplazamiento de oferta por IA, no por recuperación real de demanda, señales distorsionadas, elasticidad limitada.
【Señales de transacción】
Mantener una visión optimista sobre HBM, Hynix se beneficia más; Macronix (NOR Flash, Top Pick) se beneficia de la escasez y valoración razonable; aumento de precios en NAND/DDR4 no implica mejora en demanda, cautela con compras impulsivas.
Cuatro, variables macro y geopolíticas: variables explicativas para el juicio de los segmentos
【Geopolítica】 Control de exportaciones en aumento
Restricciones a la exportación de NVIDIA a China → Demanda de chips AI locales en China aumenta con certeza; el gasto de capital en nube en China en 2026E alcanzará 105 mil millones de dólares, acercándose rápidamente al 14% del gasto global en nube.
【Macro】 Restricciones energéticas (EE. UU.)
La tensión en el suministro eléctrico en centros de datos en EE. UU. limita potencialmente el crecimiento de la demanda de GPU, pero en el corto plazo (2026) aún no es una restricción sustancial.
【Estructura de la industria】 Efecto de absorción de IA
El efecto de absorción de la demanda AI en la cadena de suministro no AI (T-Glass, DRAM tradicional, capacidad de foundries de consumo) explica por qué el rendimiento de semiconductores no AI sigue siendo débil, más allá de factores cíclicos.
【Costos】 Inflación tecnológica
Aumento en costos de obleas / OSAT / almacenamiento, presionando márgenes de diseño de chips (especialmente en segmentos no AI); el poder de negociación de TSMC y otros foundries continúa creciendo.
Cinco, portafolio recomendado y marco de transacción
Basado en la evaluación de todos los segmentos, construimos el siguiente marco de transacción:
Seis, resumen en una frase
Comprar encapsulado (TSMC), comprar equipos de prueba (Hon Precision / WinWay / MPI), comprar líderes en chips AI chinos (Cambrian); evitar expectativas de recuperación fuerte en semiconductores no AI, centrarse en HBM en almacenamiento y mantener neutral en NAND/DRAM tradicionales. Ventana temporal: 2026–2027, el ciclo de gasto en capital en IA aún no termina.
Aviso de riesgo: Este documento se basa en informes de investigación públicos de Morgan Stanley, solo para uso interno, no constituye asesoramiento de inversión. El mercado es incierto, los resultados reales pueden diferir significativamente de las predicciones, los inversores deben actuar con cautela.
《Construyendo la infraestructura futura de IA—CPU, GPU, ASIC, módulos ópticos y chips chinos》
Perspectiva sólida sobre semiconductores de IA
Morgan Stanley califica el panorama de semiconductores de IA como “Fuerte”, impulsado por tres fuerzas: aplicaciones revolucionarias de IA, carrera de potencia de cálculo entre gigantes tecnológicos, y demandas de construcción de IA soberana en varios países. Al mismo tiempo, el informe identifica cuatro restricciones de crecimiento — presupuesto, cuello de botella energético en EE. UU., capacidad de producción de chips en China, regulación — que en esencia reflejan que la oferta no puede seguir la demanda, no que la demanda se apague.
A largo plazo, hay tres variables estructurales a vigilar:
Inflación tecnológica (aumento en costos de obleas / encapsulado / almacenamiento que comprimen márgenes de diseñadores de chips);
Efecto de absorción de IA (recursos de la cadena desplazados hacia IA, marginando semiconductores no AI);
Efecto DeepSeek (inferencias de bajo costo validadas, demanda de inferencia en China se acelera, capacidad de producción de GPU en la cadena de suministro local también aumenta). La suma de estos tres constituye la lógica subyacente para todos los segmentos en el informe.
Comparación de valoraciones: foundries, backend, almacenamiento, IDM (fabricantes integrados) y equipos de semiconductores
Comparación de valoraciones: sin fábricas (fabless), semiconductores de potencia, FPGA y chips analógicos
Ciclo largo de semiconductores
La conclusión principal es que el ciclo se diferencia, no que toda la recuperación sea uniforme: la utilización de foundries lógica se espera que vuelva a 80% en la segunda mitad de 2026, pero excluyendo GPU AI de NVIDIA y almacenamiento, el crecimiento de semiconductores no AI en 2026 se prevé que disminuya notablemente; la caída en días de inventario es una señal positiva, los datos históricos muestran que los ciclos de reducción de inventarios suelen coincidir con subidas en los índices de semiconductores, pero la recuperación en esta fase es mucho más estructural.
Cadena de suministro de semiconductores AI y memorias especializadas
Para 2030, el mercado global de semiconductores podría alcanzar 1.5 billones de dólares, con la mitad proveniente de semiconductores AI.
Punto de referencia a largo plazo importante: se espera que el mercado global de semiconductores alcance 1.5 billones de dólares en 2030, con aproximadamente 753 mil millones de dólares en semiconductores AI; la hipótesis alcista para TAM de AI en la nube en 2025 es de 235 mil millones de dólares (principalmente NVIDIA AI GPU), con una CAGR del 38% entre 2023 y 2030, proporcionando la base para la valoración de todos los segmentos posteriores.
Perspectiva más brillante para semiconductores en la nube
Los cuatro principales proveedores de nube (AWS/Google/Microsoft/Meta) en Q1 2026 aumentaron su gasto de capital en un 95% interanual, siendo el dato más fuerte en toda la demanda; la proporción Capex/EBITDA se mantiene en torno al 50%, indicando sostenibilidad financiera en la expansión; las previsiones de beneficios de Aspeed continúan ajustándose al alza, como líder en chips para servidores AI en la nube, su tendencia de revisión confirma la demanda en la nube.
Los principales proveedores de servicios en la nube mantienen un gasto fuerte
El rastreador de Capex en la nube de MS estima que en 2026 los 10 principales en la nube gastarán 685 mil millones de dólares, un 10% por encima del consenso del mercado; la correlación histórica entre Capex en la nube y Capex de TSMC respalda la visión de que “esta no es una recuperación de ciclo corto”; aproximadamente el 65% de los activos tienen ciclos cortos, lo que implica que los proveedores de nube deben comprar continuamente cada año, con demanda rígida.
Impacto de la infraestructura energética de TSMC
A través de las especificaciones de racks y potencia desplegada por clientes principales como NVIDIA, AMD, Broadcom y AWS, se estima la demanda de obleas CoWoS desde abajo hacia arriba; un rack de NVIDIA Rubin NVL144 con potencia de 220 kW y 45 racks implica una demanda anual de aproximadamente 136 mil obleas en 2027, base clave para la evaluación de la tensión en la oferta y demanda de CoWoS.
Dado el fuerte crecimiento de la demanda AI, TSMC podría ampliar su capacidad de CoWoS a 165 mil obleas mensuales antes de 2027.
Datos de oferta de CoWoS: capacidad de TSMC aumentará de 120 kW/m en 2025 a 165 kW/m en 2027, y la capacidad de no TSMC (Amkor/UMC/ASE) de 23 kW/m a 80 kW/m; NVIDIA representa aproximadamente el 59% del consumo total de CoWoS, Broadcom alrededor del 20%, concentración que hace que los cambios en pocos clientes tengan gran impacto en TSMC.
La expansión de SoIC (chips de integración de sistemas) será clave en los próximos años para TSMC
SoIC se define como la estrategia clave futura de TSMC: capacidad de 45 kW/m en 2025 a 78 kW/m en 2027, con NVIDIA, AMD, Apple, Qualcomm/Broadcom en la lista de demanda; SoIC, con mayor integración y barreras técnicas que CoWoS, será la segunda curva de crecimiento en encapsulado avanzado, con rápida expansión en 2026-2027.
TSMC probablemente duplicará capacidad de CoWoS y SoIC en 2025, tendencia que se espera continúe hasta 2026.
El consumo de obleas de cálculo AI en 2026 podría alcanzar 27.2 mil millones de dólares, con NVIDIA dominando la mayor parte.
Listado desde abajo hacia arriba de todos los principales chips AI en 2026 (NVIDIA B300/Rubin/H200, Google TPU, AWS Trainium3, Microsoft Maia, OpenAI Nexus), distribución de capacidad CoWoS, envíos, consumo de obleas y valor de obleas; se estima que el consumo total de obleas en chips AI en 2026 será de aproximadamente 27,2 mil millones de dólares, con NVIDIA en liderazgo, siendo la base más convincente para la estimación del ingreso de TSMC en AI.
Consumo de HBM en 2026 — hasta 32 mil millones de Gb
Demanda total de HBM en 2026: aproximadamente 32,279 millones de Gb, con NVIDIA representando alrededor del 58%; listado de especificaciones de HBM por chip (capacidad, generación, proveedor), predominando HBM3e 12hi en la serie Google TPU, y HBM3/HBM4 en AWS/Microsoft; Hynix, Samsung y Micron comparten la oferta, Hynix beneficiándose más por su liderazgo en tecnología HBM.
Estimación de producción de servidores NVIDIA GB200/300
Supuestos de oferta y demanda para racks de servidores NVIDIA GB200/300
Los ingresos de chips AI en TSMC podrían alcanzar el 60% entre 2024 y 2029
Los ingresos de chips AI de TSMC crecerán a una CAGR del 60% en 2024-2029, con más del 30% de los ingresos totales en 2026; la estructura de ingresos incluye chips AI generales, ASICs personalizados, encapsulado CoWoS y CPUs para servidores AI, con Apple representando el 19%, NVIDIA el 21%, Broadcom el 11%; márgenes brutos y EBITDA en expansión, confirmando que los negocios AI mejoran la calidad general de beneficios de TSMC.
Demanda segmentada de obleas avanzadas en TSMC
Inteligencia artificial (Agentic AI) — Ampliando oportunidades en CPU
AI pasa de la inferencia a la fase de “acción”, con una relación CPU/GPU que pasa de GPU pesada (1:12) a CPU pesada (≥1:1), impulsada por llamadas API, ejecución de código y tareas de múltiples agentes; MediaTek estima que AI agentic puede agregar entre 32.5 y 60 mil millones de dólares en mercado de CPU (hasta 2030), siendo MediaTek un beneficiario destacado en diseño de CPUs para servidores AI.
La escasez de almacenamiento NAND aumenta; se prevé que la oferta de NOR Flash siga siendo insuficiente hasta 2026.
La escasez de DDR4 persistirá hasta la segunda mitad de 2026; los precios spot tienen un límite superior.
Chips ASIC AI, CPO y prueba de chips
AI semiconductores: presente y futuro — “Impulsores clave”
Presentar en paralelo los impulsores, restricciones, soluciones tecnológicas y perspectivas de crecimiento de los chips AI; destacar las tres perspectivas de crecimiento — inferencia vs entrenamiento, edge vs nube, ASIC personalizado vs GPU AI — como mapa mental para entender las divergencias en los segmentos posteriores del informe.
Los proveedores de servicios en la nube (CSPs), incluso con potentes GPUs AI de NVIDIA, aún necesitan chips personalizados
Según los planes de los CSPs, se esperan más proyectos de ASIC próximamente.
¿Cómo se comparan CoWoS de TSMC y EMIB de Intel?
El tamaño de encapsulado mayor se vuelve tendencia clave en la industria.
El aumento en el tiempo de prueba de chips, desde 350 segundos en Hopper hasta 1800-2000 segundos en la próxima generación de GPU, es la principal métrica estructural en equipos de prueba; el número de pines en los sockets de prueba pasa de 1500 en teléfonos/PC a 6000 en AI/HPC, y en la próxima generación a más de 10,000; el mercado global de equipos de prueba crecerá a una tasa del 35% entre 2024 y 2027, con la hoja de ruta de encapsulado de TSMC mostrando expansión continua del interposer, sustentando la visión de ciclo largo para estos equipos.
Roles de Hon Precision, WinWay y MPI en la cadena de suministro de semiconductores
Evolución de equipos y componentes de prueba: encapsulado óptico (CPO)
Hon Precision: beneficiario clave de la tendencia estructural de aumento en tiempo de prueba; calificación de Morgan Stanley: sobreponderar (OW)
MPI: líder en tecnología de tarjetas de sonda con opción CPO; calificación: sobreponderar (OW)
WinWay: líder en sockets de prueba con ventajas en encapsulado complejo AI; calificación: sobreponderar (OW)
Semiconductores chinos: OSAT, semiconductores compuestos, MCU y GPU AI
Optimismo en equipos de última etapa (ASMP), pero neutral en OSAT chinos
Optimismo en SiC (carburo de silicio) sobre GaN (nitruro de galio): SICC (OW) y InnoScience (EW)
MCU: en fondo, sin recuperación aún
El mercado de semiconductores AI nacionales en China crece en tamaño y cuota
El mercado de aceleradores AI en China tiene estructura clara: Huawei domina con 62%, Cambrian 14%, y los demás por debajo del 10%; las valoraciones de las empresas chinas de GPU AI siguen creciendo, con más IPOs en puerta, y el mercado en expansión junto con la actividad en capitales, formando el contexto para análisis de futuros objetivos.
Se prevé que para 2030, el TAM total de GPU AI en China alcance 67 mil millones de dólares.
La capacidad de proceso avanzada en China se expande para satisfacer la demanda local de GPU AI.
Seguimiento del mercado de demanda de GPU AI en China a corto plazo
Cadena de valor de chips AI — China y EE. UU. — Desacoplamiento del cálculo AI
La fortaleza de infraestructura en China reduce la percepción de brechas tecnológicas
Usando radar para comparar en nueve dimensiones la brecha en capacidades de infraestructura AI entre China y EE. UU.: China destaca en apoyo político, espacio en centros de datos AI y optimización de software (LLM), pero las principales brechas están en la etapa previa a la oblea, memoria HBM y redes ópticas; se propone una estrategia en tres pasos para compensar la insuficiencia de potencia de cálculo en chips: empaquetado multichip → racks y clústeres mayores → expansión de capacidad de fabricación, con Huawei CloudMatrix 384 A3 SuperPod como ejemplo de esta estrategia.
Economía de inferencia: costo total de propiedad (TCO) y costo por token
El TCO de chips AI nacionales es un 30-60% menor que NVIDIA, y los aceleradores nacionales de primera línea pueden igualar o superar el costo por token de NVIDIA; esta conclusión respalda que “la sustitución local en China no es solo política, sino también racionalidad económica”, base para la visión optimista a largo plazo en el informe.
Pedidos y potenciales órdenes para aceleradores AI nacionales
TPS (tokens por segundo) — Análisis de rendimiento
Por la reducción de precios, los chips nacionales logran mayor rendimiento por dólar.
Los “diez dragones” de los fabricantes chinos de GPU AI. Enfoque en Cambrian, Muoxi y Tianzhi ZhiXin.
Comparación entre Cambrian, Muoxi y Tianzhi ZhiXin (Iluvatar)
Comparación transversal de las tres principales empresas chinas de chips AI: Cambrian (ASIC 7nm SMIC, clientes grandes, único rentable), MetaX Muoxi (GPGPU 12nm SMIC, con fondos soberanos, diferencia tecnológica notable), Tianzhi ZhiXin Iluvatar (GPGPU 7nm TSMC, alta resiliencia en cadena de suministro); en términos de rentabilidad, estructura de clientes y proceso, Cambrian muestra mayor certeza, conclusión implícita del informe.