Em meados de maio, durante a janela de 90 dias com a suspensão das tarifas, uma batalha pela disputa de recursos centrais de poder computacional aumentou repentinamente.
“O preço dos servidores está a flutuar drasticamente, há algum tempo o preço de cada unidade já aumentou 15%-20%. Com a suspensão das tarifas, planeamos retomar as vendas ao preço original.” Um fornecedor de chips de uma região do sul revelou ao Huxiu.
Ao mesmo tempo, o lado da oferta do mercado está também a introduzir novas variáveis. A Tiger Sniff apurou com exclusividade que a série de produtos topo de gama Nvidia Hooper e a série Blackwell apareceram discretamente no mercado nacional, a primeira vai aparecer em setembro de 2024, e a segunda aconteceu recentemente. Um executivo da Sinovel disse: "Diferentes fornecedores têm diferentes fontes de bens. "A complexa rede de cadeia de suprimentos por trás disso não é encontrada em nenhum lugar.
(Nota do Tiger Sniff: A partir de 17 de outubro de 2023, Washington começou a interromper gradualmente a venda de chips da Nvidia para a China, incluindo A100, A800, H800, H100, H200; recentemente, o H20 da série Hooper, que era o último chip que podia ser vendido para a China, também foi incluído na lista de restrição de exportação)
Entre eles, a série de alto desempenho Hooper da NVIDIA geralmente se refere ao H200, que é uma versão aprimorada do chip H100. O primeiro custa apenas algumas dezenas de milhares a mais do que o segundo, mas sua eficiência é 30% superior. A série Blackwell pertence à linha de alto desempenho da NVIDIA, onde o B200 tem um preço superior a 300 mil, sendo também o produto com "circulação restrita" mais rigorosa atualmente, com um caminho de circulação mais secreto. Ambos são utilizados para pré-treinamento de grandes modelos, e o B200 é ainda mais difícil de conseguir.
Recuando na linha do tempo, em abril de 2024, uma foto de Jensen Huang com o Ultraman (Sam Altman) e o cofundador da OpenAI, Greg Brockman, circulou no Twitter. Esta foto é um marco importante na entrega do primeiro lote do produto H200 - o CEO da NVIDIA, Jensen Huang, fez a entrega pessoalmente, enquanto a OpenAI foi um dos primeiros usuários do H200.
Cinco meses depois, chegou a notícia da disponibilidade de H200 do outro lado do oceano. Atualmente, fornecedores nacionais já têm capacidade para fornecer 100 servidores H200 por semana. De acordo com o fornecedor, com a interrupção da produção do H100, a demanda do mercado está se deslocando rapidamente para o H200, e atualmente há menos de dez fornecedores que controlam o fornecimento de H200, aumentando ainda mais a disparidade entre oferta e demanda.
"O que falta mais no mercado agora é o H200, e pelo que sei, uma fábrica de nuvem está recentemente à procura de H200 em vários lugares." Um veterano da indústria de poder de cálculo, com 18 anos de experiência, disse ao Huxiu que eles fornecem serviços de poder de cálculo a Baidu, Alibaba, Tencent e Byte.
Na corrida armamentista de poder computacional, a cadeia de transações está envolta em um mistério. Um dos principais fornecedores de poder computacional do país afirmou que a regra de precificação de poder computacional, comum na indústria, é que o contrato apenas indica a unidade de poder computacional "P", transformando a transação de servidores em uma transação abstrata de poder computacional. (Nota do autor: P é a unidade de cálculo do poder computacional) Por exemplo, ao realizar uma transação de poder computacional entre a parte que utiliza o poder e o fornecedor, o modelo da placa não será diretamente escrito no contrato, mas será substituído pela quantidade de P de poder computacional, ou seja, não será mencionado explicitamente o modelo da placa.
Aprofundando-se nas camadas inferiores da cadeia de indústria, redes de negociação ocultas vêm à tona. Anteriormente, a mídia revelou que alguns distribuidores chineses, através de canais de compra especiais, conseguiram, por meio de revendas e embalagens em múltiplas camadas, "colocar servidores no mercado de forma indireta". Além disso, a Tiger Sniff soube que alguns distribuidores estão a explorar novas abordagens, utilizando empresas terceiras, obtendo servidores ao integrar módulos nos produtos.
Por trás da cadeia industrial em movimento, o desenvolvimento da indústria de computação doméstica também está a apresentar novos rumos.
01 De onde vem a bolha da inteligência computacional?
No final de 2023, a "proibição da Nvidia" vinda do outro lado do oceano caiu como uma pedra em um lago tranquilo, dando início a uma guerra oculta em torno dos recursos centrais de poder computacional.
Nos primeiros meses, o mercado apresentou uma forma primitiva de confusão e agitação. Sob a tentação de lucros exorbitantes, alguns indivíduos com um bom faro começaram a arriscar. "Naquela época, o mercado estava repleto de 'fornecedores' de vários antecedentes, havia estudantes que voltaram do exterior e também alguns intermediários bem informados", lembrou um profissional do setor que preferiu não ser identificado, "suas formas de transação eram relativamente simples e brutais, embora as negociações ainda fossem secretas, estavam longe de formar a complexa cadeia de subcontratação que surgiu depois."
Estes primeiros "pioneiros" aproveitaram a lacuna de informação e vários canais informais para fornecer placas gráficas topo de gama da NVIDIA ao mercado. Como resultado, o preço das placas gráficas aumentou naturalmente. De acordo com alguns relatos da mídia, alguns fornecedores individuais chegaram a precificar a placa de vídeo Nvidia A100 para 128.000 yuans, excedendo em muito seu preço de varejo sugerido oficial de cerca de US $ 10.000. Além disso, algumas pessoas têm chips H100 nas mãos em plataformas de mídia social, dizendo que o preço de um único chip é tão alto quanto 250.000 yuans. Na época, pode-se dizer que os comportamentos e gestos acima mencionados são quase ostentosos.
Sob esta circulação secreta, alguns grandes fornecedores de capacidade de cálculo já começaram a ter canais de rede de transações semelhantes, e a onda de inteligência computacional que surgiu a partir disso também começou a crescer no mesmo período. Entre 2022 e 2024, muitos locais apressaram a construção de centros de inteligência computacional. Dados mostram que, apenas em 2024, os projetos de centros de inteligência computacional ultrapassaram os 458.
No entanto, a intensa "onda de especulação de cartões e computação inteligente" não durou muito tempo. No final de 2024, especialmente após o surgimento de grandes modelos nacionais como o DeepSeek, que se destacaram pelo seu alto custo-benefício, alguns fornecedores de poder computacional que dependiam puramente da "especulação de cartões" ou que careciam de suporte tecnológico fundamental descobriram que suas histórias se tornavam cada vez mais difíceis de contar. A bolha da computação inteligente também começou a mostrar sinais de ruptura.
De acordo com dados estatísticos, no primeiro trimestre de 2025, a China continental teve 165 projetos de centros de computação inteligente com novas dinâmicas, dos quais 58% (95) ainda estão em estado de aprovação ou em fase de preparação, 33% (54) estão em construção ou prestes a entrar em produção, enquanto apenas 16 projetos realmente entraram em produção ou em fase de testes, representando menos de 10%.
Claro, os sinais de ruptura da bolha não estão apenas a aparecer no país. Nos últimos seis meses, a Meta, a Microsoft e outras têm anunciado a suspensão de alguns projetos de centros de dados globais. O outro lado da bolha é a preocupante ineficiência e ociosa.
Alguns profissionais da indústria disseram ao Huxiu que "atualmente a taxa de ativação dos centros de computação inteligente é inferior a 50%, e os chips nacionais, devido a limitações de desempenho, não podem ser utilizados para pré-treinamento. Além disso, alguns centros de computação inteligente utilizam servidores relativamente desatualizados."
Este fenómeno de "ter um cartão que não pode ser utilizado" é atribuído por profissionais da indústria a um "desajuste estrutural" — não se trata de um excesso absoluto de poder de computação, mas sim de uma oferta insuficiente de poder de computação eficaz e capaz de satisfazer a alta demanda, enquanto muitos recursos de computação já construídos não podem ser plenamente utilizados devido à obsolescência tecnológica, ecossistemas imperfeitos ou falta de capacidade operacional.
No entanto, no mapa da inteligência computacional onde coexistem agitação e preocupações, os gigantes da tecnologia mostram uma postura totalmente diferente.
De acordo com relatórios, a ByteDance planeja investir mais de 12,3 bilhões de dólares (cerca de 89,2 bilhões de yuans) em infraestrutura de IA até 2025, dos quais 40 bilhões de yuans serão destinados à compra de chips de IA na China, e cerca de 50 bilhões de yuans estão planejados para a compra de chips da Nvidia. Em resposta, a ByteDance disse ao Tiger Sniff que a informação não é precisa.
Da mesma forma, a Alibaba também investiu muito em IA. O CEO Wu Yongming anunciou publicamente no dia 24 de fevereiro que, nos próximos três anos, a Alibaba pretende investir 380 bilhões de yuans na construção de infraestrutura de IA. Este valor até supera o total dos últimos dez anos.
Mas, diante da compra em grande escala, a pressão do lado da oferta também está se destacando. "O fornecimento do mercado não consegue atender às grandes empresas, muitas empresas assinaram contratos e não conseguem entregar os produtos." disse um vendedor de um fornecedor de inteligência computacional ao Huxiu.
Em comparação, a bolha de computação inteligente mencionada acima parece contrastar fortemente com o investimento maciço das grandes empresas na infraestrutura de IA atualmente: de um lado, fornecedores de poder computacional, liderados pelo mercado A-share, estão interrompendo grandes projetos de computação inteligente, enquanto do outro lado, as grandes empresas estão investindo ativamente na infraestrutura de IA.
E a razão por trás disso não é difícil de entender. Porque o momento de resfriamento da computação inteligente coincide exatamente com o período em torno do DeepSeek. Desde o início deste ano, ninguém mais mencionou o conceito relacionado à "guerra dos cem modelos"; o DeepSeek estourou a bolha da demanda de treinamento. Hoje, só restam na mesa os grandes players e algumas empresas de modelos de IA.
A este respeito, Feng Bo, sócio da Changlei Capital Management, disse à Huxiu: "Quando o treinamento não é diversificado, as pessoas realmente capacitadas e qualificadas para treinar continuarão a comprar cartões para treinamento, como Alibaba e ByteDance, enquanto aqueles que não têm capacidade para treinar se dispersarão, e a capacidade de computação nas mãos dessas pessoas se tornará uma bolha."
02 Poder de Computação Devolvido
A origem de qualquer "bolha" está enraizada na imaginação irracional da escassez por parte da humanidade. Aqueles que especulam sobre o Moutai e acumulam poder de computação não são, em si, apreciadores do Moutai ou consumidores de poder de computação, mas compartilham uma psicologia especulativa.
Até o final de 2024 e no primeiro trimestre de 2025, várias empresas, incluindo Feilixin, Lianhua Holdings e Jinjis股份, suspenderam contratos de locação de capacidade de vários milhões de yuans. Ao mesmo tempo, um fornecedor de capacidade disse ao Tiger Sniff: "No negócio de locação de capacidade, a rescisão de contratos é algo comum."
Estas empresas que encerraram contratos de locação não são realmente terminais de demanda de poder computacional. Com o choque no setor provocado pela DeepSeek, a bolha da indústria de IA está gradualmente estourando, e muitos fornecedores de poder computacional têm que enfrentar o problema do excesso de capacidade, à procura de fontes de clientes estáveis e explorando novos caminhos para a absorção de poder computacional.
A Tiger Sniff descobriu em uma investigação que, no cartão de visita de um fundador de um fornecedor de capacidade computacional, além de três empresas nas áreas de inteligência computacional e computação em nuvem, também estava impressa uma empresa de investimento. Ao aprofundar a investigação, descobriu-se que os projetos investidos por essa empresa de investimento incluíam uma empresa de robótica e uma empresa focada em pesquisa e desenvolvimento de grandes modelos e sistemas em nuvem. O fundador revelou à Tiger Sniff: "Toda a demanda de capacidade computacional dessas duas empresas investidas é atendida pelo seu próprio sistema de fornecimento de capacidade; além disso, as empresas investidas normalmente compram capacidade fornecida pela própria empresa a preços de mercado baixos."
Na verdade, na indústria de computação inteligente, formas como a ligação entre computação inteligente + investimento não são de forma alguma uma exceção. Para muitos fornecedores de poder de computação, "esta é atualmente uma forma muito útil de absorver cartões, apenas não foi colocada em destaque." Feng Bo disse ao Hu Xiu.
No entanto, na história acima, esta é uma forma de caminho de consumo de poder computacional "monopolista", onde os fornecedores de poder computacional investem para garantir a demanda de poder computacional e atendem diretamente a toda a demanda de poder computacional dos projetos em que investem. Mas não é a única maneira.
Feng Bo acredita que há um modelo em que "os fornecedores de poder computacional entram no fundo de investimento na qualidade de LP, construindo um modelo de cadeia de demanda de poder computacional em circuito fechado que merece atenção."
Especificamente, este modelo de negócio apresenta características de ligação de capital: o fornecedor de poder computacional A, como um potencial sócio limitado (LP), alcança uma intenção de cooperação com o fundo industrial B. No mapa de investimentos do fundo B, a empresa de aplicações de IA C é uma empresa investida, cuja evolução comercial tem uma necessidade rígida de recursos de poder computacional. Neste momento, A, através do investimento estratégico no fundo B, vincula indiretamente a futura demanda de compra de poder computacional da empresa C, construindo um ciclo fechado de "investimento de capital - compra de poder computacional".
Se a transação for concluída, a empresa A terá o direito de prioridade ao serviço com base na sua identidade de LP, tornando-se o fornecedor preferencial para a aquisição de poder computacional da empresa C. Este modelo cria essencialmente um fluxo cíclico de capital - o investimento da empresa A no fundo B retorna finalmente através da aquisição de poder computacional da empresa C.
"Esta não é uma forma mainstream, mas é uma forma que ainda é bastante útil." afirmou Feng Bo.
03 A bolha está prestes a estourar, e agora?
"Falar sobre a bolha da computação inteligente não pode ser apenas sobre poder computacional, é uma questão de cadeia industrial. Para que o poder computacional seja utilizado, é necessário conectar os pontos que foram desconectados. Atualmente, esta cadeia industrial ainda não formou um ciclo fechado." Um diretor de marketing de um fornecedor de poder computacional que atua no setor há muitos anos apontou de forma perspicaz o cerne do problema da indústria de computação inteligente.
Ao entrar no primeiro semestre de 2025, uma tendência notável no campo da IA é que a palavra "pré-treinamento", que costumava ser frequentemente mencionada pelas grandes empresas de IA, está gradualmente sendo substituída por "inferência". Seja voltada para o vasto mercado de consumo C ou para capacitar aplicações empresariais B em diversas indústrias, a curva de crescimento da demanda por inferência parece ser excepcionalmente acentuada.
"Vamos fazer uma simples dedução," estimou um analista do setor, "com base na escala das principais aplicações de IA atualmente no mercado, como Doubao, DeepSeek, entre outras. Supondo que cada usuário ativo gere em média 10 imagens por dia, a demanda de poder computacional por trás disso pode facilmente alcançar o nível de milhões de P. Isso é apenas para o cenário de geração de imagens; se adicionarmos texto, voz, vídeo e outras interações multimodais, a magnitude da demanda é ainda mais difícil de estimar."
Isto é apenas a demanda de inferência dos usuários finais. Para os usuários empresariais, a demanda de inferência é ainda maior. Um executivo da Huari Zhikuan disse ao Tiger Sniff que as fábricas de automóveis começam a construir centros de computação inteligente a partir de escalas de dezenas de milhares de P, "e entre os nossos clientes, além das grandes empresas, as fábricas de automóveis têm a maior demanda por poder de computação."
No entanto, ao relacionar a enorme demanda por inferência com a bolha de poder computacional, a história parece extremamente absurda. Por que é que tanta demanda por inferência ainda gera uma bolha de poder computacional?
Um fornecedor de poder computacional disse ao Huxiu que uma demanda de inferência tão massiva requer que os provedores de serviços de inteligência computacional otimizem o poder computacional por meio de tecnologias de engenharia, como a compressão do tempo de inicialização, aumento da capacidade de armazenamento, redução da latência de inferência, aumento da taxa de transferência e precisão da inferência, entre outros.
Além disso, o problema de desajuste entre oferta e demanda mencionado acima também é amplamente causado por questões relacionadas aos chips. A esse respeito, fontes da indústria informaram ao Huxiu que a diferença entre algumas placas nacionais e as da Nvidia ainda é considerável; o desempenho das próprias placas não é uniforme, e mesmo que se acumulem várias placas de uma mesma marca, as limitações ainda persistem. Isso resulta na incapacidade de um único cluster de completar efetivamente o treinamento e a inferência de IA.
Este "efeito do ponto fraco" significa que, mesmo ao construir um agrupamento de poder computacional através da empilhagem em grande escala de chips, se o problema do ponto fraco não for efetivamente resolvido, a eficácia geral de todo o agrupamento ainda será limitada, dificultando o suporte eficiente ao treinamento complexo de grandes modelos de IA e a tarefas de inferência em grande escala.
Na verdade, os desafios de engenharia a nível de poder computacional e os gargalos de chip são, sem dúvida, severos, mas muitas das necessidades de poder computacional mais profundas não foram efetivamente atendidas, e o verdadeiro "ponto de ruptura" frequentemente ocorre no ecossistema de aplicações acima do nível de poder computacional, especialmente na camada L2 (ou seja, modelos verticais direcionados a indústrias ou cenários específicos) com uma grave lacuna.
Na indústria da saúde, existe um enorme "buraco" que precisa ser preenchido. O efeito de atração de talentos é um problema estrutural que há muito tempo é criticado no sistema de saúde nacional, com excelentes médicos concentrados em hospitais de classe A nas grandes cidades. Mas quando o setor espera que grandes modelos de saúde realizem a descentralização de recursos médicos de qualidade, um desafio mais fundamental emerge: como construir um espaço de dados médicos confiáveis?
Porque se pretende treinar um grande modelo vertical com capacidade de diagnóstico e tratamento completo, os dados são a condição fundamental. Mas o problema é que é necessário ter um grande volume de dados que abranjam todo o processo da doença, todas as faixas etárias, todos os géneros e todas as regiões para que o conhecimento possa ser formado no grande modelo. E a realidade é que a taxa de abertura de dados médicos é inferior a 5%.
O diretor do departamento de informação de um hospital terciário revelou que, dos 500 TB de dados clínicos gerados anualmente pelo seu hospital, menos de 3% são dados estruturados desidentificados que podem ser utilizados para o treinamento de IA. Mais grave ainda, os dados sobre doenças raras e doenças crónicas, que representam 80% do valor do mapa das doenças, estão a dormir há muito tempo nas "ilhas de dados" de várias instituições de saúde devido à sua sensibilidade.
E pontos de interrupção como este não podem ser resolvidos, a cadeia de produção não pode formar um ciclo fechado. A demanda por poder computacional, naturalmente, não será atendida, e claramente, isso já ultrapassou em muito o alcance dos fornecedores de infraestrutura de poder computacional que apenas oferecem "placas e eletricidade" no sentido tradicional.
No entanto, atualmente, um grupo de novos prestadores de serviços de computação inteligente está emergindo silenciosamente no mercado. Estas empresas não se limitam mais a se posicionar apenas como fornecedoras de hardware ou locadoras de poder de computação; elas também conseguem formar equipes profissionais de algoritmos e equipes de especialistas da indústria, participando profundamente no desenvolvimento e otimização das aplicações de IA dos clientes.
Enquanto isso, enfrentando problemas como a má alocação de recursos e a taxa de utilização da capacidade computacional, várias regiões estão implementando diversas políticas de subsídio à capacidade computacional de acordo com as necessidades da indústria local, entre as quais os "vouchers de capacidade computacional" servem como uma forma de subsídio que reduz diretamente os custos de utilização da capacidade computacional para as empresas. No entanto, para a atual fase da indústria de inteligência computacional da China, um simples "remédio de emergência" político provavelmente já não será capaz de mudar a situação fundamental.
Hoje, o que a indústria de computação inteligente precisa é de um ecossistema de cultivo "autossustentável".
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Uma bolha provocada pela Nvidia está prestes a estourar.
Fonte: AGI接口
Em meados de maio, durante a janela de 90 dias com a suspensão das tarifas, uma batalha pela disputa de recursos centrais de poder computacional aumentou repentinamente.
“O preço dos servidores está a flutuar drasticamente, há algum tempo o preço de cada unidade já aumentou 15%-20%. Com a suspensão das tarifas, planeamos retomar as vendas ao preço original.” Um fornecedor de chips de uma região do sul revelou ao Huxiu.
Ao mesmo tempo, o lado da oferta do mercado está também a introduzir novas variáveis. A Tiger Sniff apurou com exclusividade que a série de produtos topo de gama Nvidia Hooper e a série Blackwell apareceram discretamente no mercado nacional, a primeira vai aparecer em setembro de 2024, e a segunda aconteceu recentemente. Um executivo da Sinovel disse: "Diferentes fornecedores têm diferentes fontes de bens. "A complexa rede de cadeia de suprimentos por trás disso não é encontrada em nenhum lugar.
(Nota do Tiger Sniff: A partir de 17 de outubro de 2023, Washington começou a interromper gradualmente a venda de chips da Nvidia para a China, incluindo A100, A800, H800, H100, H200; recentemente, o H20 da série Hooper, que era o último chip que podia ser vendido para a China, também foi incluído na lista de restrição de exportação)
Entre eles, a série de alto desempenho Hooper da NVIDIA geralmente se refere ao H200, que é uma versão aprimorada do chip H100. O primeiro custa apenas algumas dezenas de milhares a mais do que o segundo, mas sua eficiência é 30% superior. A série Blackwell pertence à linha de alto desempenho da NVIDIA, onde o B200 tem um preço superior a 300 mil, sendo também o produto com "circulação restrita" mais rigorosa atualmente, com um caminho de circulação mais secreto. Ambos são utilizados para pré-treinamento de grandes modelos, e o B200 é ainda mais difícil de conseguir.
Recuando na linha do tempo, em abril de 2024, uma foto de Jensen Huang com o Ultraman (Sam Altman) e o cofundador da OpenAI, Greg Brockman, circulou no Twitter. Esta foto é um marco importante na entrega do primeiro lote do produto H200 - o CEO da NVIDIA, Jensen Huang, fez a entrega pessoalmente, enquanto a OpenAI foi um dos primeiros usuários do H200.
Cinco meses depois, chegou a notícia da disponibilidade de H200 do outro lado do oceano. Atualmente, fornecedores nacionais já têm capacidade para fornecer 100 servidores H200 por semana. De acordo com o fornecedor, com a interrupção da produção do H100, a demanda do mercado está se deslocando rapidamente para o H200, e atualmente há menos de dez fornecedores que controlam o fornecimento de H200, aumentando ainda mais a disparidade entre oferta e demanda.
"O que falta mais no mercado agora é o H200, e pelo que sei, uma fábrica de nuvem está recentemente à procura de H200 em vários lugares." Um veterano da indústria de poder de cálculo, com 18 anos de experiência, disse ao Huxiu que eles fornecem serviços de poder de cálculo a Baidu, Alibaba, Tencent e Byte.
Na corrida armamentista de poder computacional, a cadeia de transações está envolta em um mistério. Um dos principais fornecedores de poder computacional do país afirmou que a regra de precificação de poder computacional, comum na indústria, é que o contrato apenas indica a unidade de poder computacional "P", transformando a transação de servidores em uma transação abstrata de poder computacional. (Nota do autor: P é a unidade de cálculo do poder computacional) Por exemplo, ao realizar uma transação de poder computacional entre a parte que utiliza o poder e o fornecedor, o modelo da placa não será diretamente escrito no contrato, mas será substituído pela quantidade de P de poder computacional, ou seja, não será mencionado explicitamente o modelo da placa.
Aprofundando-se nas camadas inferiores da cadeia de indústria, redes de negociação ocultas vêm à tona. Anteriormente, a mídia revelou que alguns distribuidores chineses, através de canais de compra especiais, conseguiram, por meio de revendas e embalagens em múltiplas camadas, "colocar servidores no mercado de forma indireta". Além disso, a Tiger Sniff soube que alguns distribuidores estão a explorar novas abordagens, utilizando empresas terceiras, obtendo servidores ao integrar módulos nos produtos.
Por trás da cadeia industrial em movimento, o desenvolvimento da indústria de computação doméstica também está a apresentar novos rumos.
01 De onde vem a bolha da inteligência computacional?
No final de 2023, a "proibição da Nvidia" vinda do outro lado do oceano caiu como uma pedra em um lago tranquilo, dando início a uma guerra oculta em torno dos recursos centrais de poder computacional.
Nos primeiros meses, o mercado apresentou uma forma primitiva de confusão e agitação. Sob a tentação de lucros exorbitantes, alguns indivíduos com um bom faro começaram a arriscar. "Naquela época, o mercado estava repleto de 'fornecedores' de vários antecedentes, havia estudantes que voltaram do exterior e também alguns intermediários bem informados", lembrou um profissional do setor que preferiu não ser identificado, "suas formas de transação eram relativamente simples e brutais, embora as negociações ainda fossem secretas, estavam longe de formar a complexa cadeia de subcontratação que surgiu depois."
Estes primeiros "pioneiros" aproveitaram a lacuna de informação e vários canais informais para fornecer placas gráficas topo de gama da NVIDIA ao mercado. Como resultado, o preço das placas gráficas aumentou naturalmente. De acordo com alguns relatos da mídia, alguns fornecedores individuais chegaram a precificar a placa de vídeo Nvidia A100 para 128.000 yuans, excedendo em muito seu preço de varejo sugerido oficial de cerca de US $ 10.000. Além disso, algumas pessoas têm chips H100 nas mãos em plataformas de mídia social, dizendo que o preço de um único chip é tão alto quanto 250.000 yuans. Na época, pode-se dizer que os comportamentos e gestos acima mencionados são quase ostentosos.
Sob esta circulação secreta, alguns grandes fornecedores de capacidade de cálculo já começaram a ter canais de rede de transações semelhantes, e a onda de inteligência computacional que surgiu a partir disso também começou a crescer no mesmo período. Entre 2022 e 2024, muitos locais apressaram a construção de centros de inteligência computacional. Dados mostram que, apenas em 2024, os projetos de centros de inteligência computacional ultrapassaram os 458.
No entanto, a intensa "onda de especulação de cartões e computação inteligente" não durou muito tempo. No final de 2024, especialmente após o surgimento de grandes modelos nacionais como o DeepSeek, que se destacaram pelo seu alto custo-benefício, alguns fornecedores de poder computacional que dependiam puramente da "especulação de cartões" ou que careciam de suporte tecnológico fundamental descobriram que suas histórias se tornavam cada vez mais difíceis de contar. A bolha da computação inteligente também começou a mostrar sinais de ruptura.
De acordo com dados estatísticos, no primeiro trimestre de 2025, a China continental teve 165 projetos de centros de computação inteligente com novas dinâmicas, dos quais 58% (95) ainda estão em estado de aprovação ou em fase de preparação, 33% (54) estão em construção ou prestes a entrar em produção, enquanto apenas 16 projetos realmente entraram em produção ou em fase de testes, representando menos de 10%.
Claro, os sinais de ruptura da bolha não estão apenas a aparecer no país. Nos últimos seis meses, a Meta, a Microsoft e outras têm anunciado a suspensão de alguns projetos de centros de dados globais. O outro lado da bolha é a preocupante ineficiência e ociosa.
Alguns profissionais da indústria disseram ao Huxiu que "atualmente a taxa de ativação dos centros de computação inteligente é inferior a 50%, e os chips nacionais, devido a limitações de desempenho, não podem ser utilizados para pré-treinamento. Além disso, alguns centros de computação inteligente utilizam servidores relativamente desatualizados."
Este fenómeno de "ter um cartão que não pode ser utilizado" é atribuído por profissionais da indústria a um "desajuste estrutural" — não se trata de um excesso absoluto de poder de computação, mas sim de uma oferta insuficiente de poder de computação eficaz e capaz de satisfazer a alta demanda, enquanto muitos recursos de computação já construídos não podem ser plenamente utilizados devido à obsolescência tecnológica, ecossistemas imperfeitos ou falta de capacidade operacional.
No entanto, no mapa da inteligência computacional onde coexistem agitação e preocupações, os gigantes da tecnologia mostram uma postura totalmente diferente.
De acordo com relatórios, a ByteDance planeja investir mais de 12,3 bilhões de dólares (cerca de 89,2 bilhões de yuans) em infraestrutura de IA até 2025, dos quais 40 bilhões de yuans serão destinados à compra de chips de IA na China, e cerca de 50 bilhões de yuans estão planejados para a compra de chips da Nvidia. Em resposta, a ByteDance disse ao Tiger Sniff que a informação não é precisa.
Da mesma forma, a Alibaba também investiu muito em IA. O CEO Wu Yongming anunciou publicamente no dia 24 de fevereiro que, nos próximos três anos, a Alibaba pretende investir 380 bilhões de yuans na construção de infraestrutura de IA. Este valor até supera o total dos últimos dez anos.
Mas, diante da compra em grande escala, a pressão do lado da oferta também está se destacando. "O fornecimento do mercado não consegue atender às grandes empresas, muitas empresas assinaram contratos e não conseguem entregar os produtos." disse um vendedor de um fornecedor de inteligência computacional ao Huxiu.
Em comparação, a bolha de computação inteligente mencionada acima parece contrastar fortemente com o investimento maciço das grandes empresas na infraestrutura de IA atualmente: de um lado, fornecedores de poder computacional, liderados pelo mercado A-share, estão interrompendo grandes projetos de computação inteligente, enquanto do outro lado, as grandes empresas estão investindo ativamente na infraestrutura de IA.
E a razão por trás disso não é difícil de entender. Porque o momento de resfriamento da computação inteligente coincide exatamente com o período em torno do DeepSeek. Desde o início deste ano, ninguém mais mencionou o conceito relacionado à "guerra dos cem modelos"; o DeepSeek estourou a bolha da demanda de treinamento. Hoje, só restam na mesa os grandes players e algumas empresas de modelos de IA.
A este respeito, Feng Bo, sócio da Changlei Capital Management, disse à Huxiu: "Quando o treinamento não é diversificado, as pessoas realmente capacitadas e qualificadas para treinar continuarão a comprar cartões para treinamento, como Alibaba e ByteDance, enquanto aqueles que não têm capacidade para treinar se dispersarão, e a capacidade de computação nas mãos dessas pessoas se tornará uma bolha."
02 Poder de Computação Devolvido
A origem de qualquer "bolha" está enraizada na imaginação irracional da escassez por parte da humanidade. Aqueles que especulam sobre o Moutai e acumulam poder de computação não são, em si, apreciadores do Moutai ou consumidores de poder de computação, mas compartilham uma psicologia especulativa.
Até o final de 2024 e no primeiro trimestre de 2025, várias empresas, incluindo Feilixin, Lianhua Holdings e Jinjis股份, suspenderam contratos de locação de capacidade de vários milhões de yuans. Ao mesmo tempo, um fornecedor de capacidade disse ao Tiger Sniff: "No negócio de locação de capacidade, a rescisão de contratos é algo comum."
Estas empresas que encerraram contratos de locação não são realmente terminais de demanda de poder computacional. Com o choque no setor provocado pela DeepSeek, a bolha da indústria de IA está gradualmente estourando, e muitos fornecedores de poder computacional têm que enfrentar o problema do excesso de capacidade, à procura de fontes de clientes estáveis e explorando novos caminhos para a absorção de poder computacional.
A Tiger Sniff descobriu em uma investigação que, no cartão de visita de um fundador de um fornecedor de capacidade computacional, além de três empresas nas áreas de inteligência computacional e computação em nuvem, também estava impressa uma empresa de investimento. Ao aprofundar a investigação, descobriu-se que os projetos investidos por essa empresa de investimento incluíam uma empresa de robótica e uma empresa focada em pesquisa e desenvolvimento de grandes modelos e sistemas em nuvem. O fundador revelou à Tiger Sniff: "Toda a demanda de capacidade computacional dessas duas empresas investidas é atendida pelo seu próprio sistema de fornecimento de capacidade; além disso, as empresas investidas normalmente compram capacidade fornecida pela própria empresa a preços de mercado baixos."
Na verdade, na indústria de computação inteligente, formas como a ligação entre computação inteligente + investimento não são de forma alguma uma exceção. Para muitos fornecedores de poder de computação, "esta é atualmente uma forma muito útil de absorver cartões, apenas não foi colocada em destaque." Feng Bo disse ao Hu Xiu.
No entanto, na história acima, esta é uma forma de caminho de consumo de poder computacional "monopolista", onde os fornecedores de poder computacional investem para garantir a demanda de poder computacional e atendem diretamente a toda a demanda de poder computacional dos projetos em que investem. Mas não é a única maneira.
Feng Bo acredita que há um modelo em que "os fornecedores de poder computacional entram no fundo de investimento na qualidade de LP, construindo um modelo de cadeia de demanda de poder computacional em circuito fechado que merece atenção."
Especificamente, este modelo de negócio apresenta características de ligação de capital: o fornecedor de poder computacional A, como um potencial sócio limitado (LP), alcança uma intenção de cooperação com o fundo industrial B. No mapa de investimentos do fundo B, a empresa de aplicações de IA C é uma empresa investida, cuja evolução comercial tem uma necessidade rígida de recursos de poder computacional. Neste momento, A, através do investimento estratégico no fundo B, vincula indiretamente a futura demanda de compra de poder computacional da empresa C, construindo um ciclo fechado de "investimento de capital - compra de poder computacional".
Se a transação for concluída, a empresa A terá o direito de prioridade ao serviço com base na sua identidade de LP, tornando-se o fornecedor preferencial para a aquisição de poder computacional da empresa C. Este modelo cria essencialmente um fluxo cíclico de capital - o investimento da empresa A no fundo B retorna finalmente através da aquisição de poder computacional da empresa C.
"Esta não é uma forma mainstream, mas é uma forma que ainda é bastante útil." afirmou Feng Bo.
03 A bolha está prestes a estourar, e agora?
"Falar sobre a bolha da computação inteligente não pode ser apenas sobre poder computacional, é uma questão de cadeia industrial. Para que o poder computacional seja utilizado, é necessário conectar os pontos que foram desconectados. Atualmente, esta cadeia industrial ainda não formou um ciclo fechado." Um diretor de marketing de um fornecedor de poder computacional que atua no setor há muitos anos apontou de forma perspicaz o cerne do problema da indústria de computação inteligente.
Ao entrar no primeiro semestre de 2025, uma tendência notável no campo da IA é que a palavra "pré-treinamento", que costumava ser frequentemente mencionada pelas grandes empresas de IA, está gradualmente sendo substituída por "inferência". Seja voltada para o vasto mercado de consumo C ou para capacitar aplicações empresariais B em diversas indústrias, a curva de crescimento da demanda por inferência parece ser excepcionalmente acentuada.
"Vamos fazer uma simples dedução," estimou um analista do setor, "com base na escala das principais aplicações de IA atualmente no mercado, como Doubao, DeepSeek, entre outras. Supondo que cada usuário ativo gere em média 10 imagens por dia, a demanda de poder computacional por trás disso pode facilmente alcançar o nível de milhões de P. Isso é apenas para o cenário de geração de imagens; se adicionarmos texto, voz, vídeo e outras interações multimodais, a magnitude da demanda é ainda mais difícil de estimar."
Isto é apenas a demanda de inferência dos usuários finais. Para os usuários empresariais, a demanda de inferência é ainda maior. Um executivo da Huari Zhikuan disse ao Tiger Sniff que as fábricas de automóveis começam a construir centros de computação inteligente a partir de escalas de dezenas de milhares de P, "e entre os nossos clientes, além das grandes empresas, as fábricas de automóveis têm a maior demanda por poder de computação."
No entanto, ao relacionar a enorme demanda por inferência com a bolha de poder computacional, a história parece extremamente absurda. Por que é que tanta demanda por inferência ainda gera uma bolha de poder computacional?
Um fornecedor de poder computacional disse ao Huxiu que uma demanda de inferência tão massiva requer que os provedores de serviços de inteligência computacional otimizem o poder computacional por meio de tecnologias de engenharia, como a compressão do tempo de inicialização, aumento da capacidade de armazenamento, redução da latência de inferência, aumento da taxa de transferência e precisão da inferência, entre outros.
Além disso, o problema de desajuste entre oferta e demanda mencionado acima também é amplamente causado por questões relacionadas aos chips. A esse respeito, fontes da indústria informaram ao Huxiu que a diferença entre algumas placas nacionais e as da Nvidia ainda é considerável; o desempenho das próprias placas não é uniforme, e mesmo que se acumulem várias placas de uma mesma marca, as limitações ainda persistem. Isso resulta na incapacidade de um único cluster de completar efetivamente o treinamento e a inferência de IA.
Este "efeito do ponto fraco" significa que, mesmo ao construir um agrupamento de poder computacional através da empilhagem em grande escala de chips, se o problema do ponto fraco não for efetivamente resolvido, a eficácia geral de todo o agrupamento ainda será limitada, dificultando o suporte eficiente ao treinamento complexo de grandes modelos de IA e a tarefas de inferência em grande escala.
Na verdade, os desafios de engenharia a nível de poder computacional e os gargalos de chip são, sem dúvida, severos, mas muitas das necessidades de poder computacional mais profundas não foram efetivamente atendidas, e o verdadeiro "ponto de ruptura" frequentemente ocorre no ecossistema de aplicações acima do nível de poder computacional, especialmente na camada L2 (ou seja, modelos verticais direcionados a indústrias ou cenários específicos) com uma grave lacuna.
Na indústria da saúde, existe um enorme "buraco" que precisa ser preenchido. O efeito de atração de talentos é um problema estrutural que há muito tempo é criticado no sistema de saúde nacional, com excelentes médicos concentrados em hospitais de classe A nas grandes cidades. Mas quando o setor espera que grandes modelos de saúde realizem a descentralização de recursos médicos de qualidade, um desafio mais fundamental emerge: como construir um espaço de dados médicos confiáveis?
Porque se pretende treinar um grande modelo vertical com capacidade de diagnóstico e tratamento completo, os dados são a condição fundamental. Mas o problema é que é necessário ter um grande volume de dados que abranjam todo o processo da doença, todas as faixas etárias, todos os géneros e todas as regiões para que o conhecimento possa ser formado no grande modelo. E a realidade é que a taxa de abertura de dados médicos é inferior a 5%.
O diretor do departamento de informação de um hospital terciário revelou que, dos 500 TB de dados clínicos gerados anualmente pelo seu hospital, menos de 3% são dados estruturados desidentificados que podem ser utilizados para o treinamento de IA. Mais grave ainda, os dados sobre doenças raras e doenças crónicas, que representam 80% do valor do mapa das doenças, estão a dormir há muito tempo nas "ilhas de dados" de várias instituições de saúde devido à sua sensibilidade.
E pontos de interrupção como este não podem ser resolvidos, a cadeia de produção não pode formar um ciclo fechado. A demanda por poder computacional, naturalmente, não será atendida, e claramente, isso já ultrapassou em muito o alcance dos fornecedores de infraestrutura de poder computacional que apenas oferecem "placas e eletricidade" no sentido tradicional.
No entanto, atualmente, um grupo de novos prestadores de serviços de computação inteligente está emergindo silenciosamente no mercado. Estas empresas não se limitam mais a se posicionar apenas como fornecedoras de hardware ou locadoras de poder de computação; elas também conseguem formar equipes profissionais de algoritmos e equipes de especialistas da indústria, participando profundamente no desenvolvimento e otimização das aplicações de IA dos clientes.
Enquanto isso, enfrentando problemas como a má alocação de recursos e a taxa de utilização da capacidade computacional, várias regiões estão implementando diversas políticas de subsídio à capacidade computacional de acordo com as necessidades da indústria local, entre as quais os "vouchers de capacidade computacional" servem como uma forma de subsídio que reduz diretamente os custos de utilização da capacidade computacional para as empresas. No entanto, para a atual fase da indústria de inteligência computacional da China, um simples "remédio de emergência" político provavelmente já não será capaz de mudar a situação fundamental.
Hoje, o que a indústria de computação inteligente precisa é de um ecossistema de cultivo "autossustentável".