A IA no lado do dispositivo entra em fase de explosão, Jiang Bolong lidera a inovação em armazenamento integrado para PC/telefone móvel e dispositivos vestíveis com "armazenamento integrado"

(Origem: Elecfans)

Do DeepSeek AI, modelos de inferência de larga escala, ao agente OpenClaw AI que explodiu em popularidade este ano, o mercado de IA no dispositivo foi completamente acionado. Se o treino de modelos de IA conquistou a memória HBM de elevada largura de banda, então a inferência de IA no dispositivo irá inevitavelmente redefinir novamente a memória para IA no dispositivo. Nesse processo, a “memória integrada” da empresa líder nacional em armazenamento, a Jiangbo Long, destaca-se de forma absoluta.

No mais recente fórum CFM|MemoryS2026 sobre flash, a presidente e CEO da Jiangbo Long, Cai Huabo, fez uma apresentação de abertura, focando em armazenamento integrado e explorando IA no dispositivo. Os dois executivos da Jiangbo Long também concederam entrevistas à comunicação social durante o evento, explicando em detalhe as capacidades de armazenamento de IA no dispositivo da Jiangbo Long; ao mesmo tempo, a empresa divulgou novos produtos e tecnologias na área de armazenamento para IA no dispositivo, o que tem merecido grande atenção do exterior.

Na sua intervenção, Cai Huabo assinalou que, com a aceleração das aplicações de inferência de IA, a estratificação do armazenamento de IA passou a distinguir de forma clara as diferenças fundamentais entre os serviços de armazenamento na cloud e no dispositivo. Nesse contexto, a IA na cloud centra-se em serviços de armazenamento especializados orientados para GPU, enquanto a IA no dispositivo se estrutura em três necessidades centrais: capacidade com elevado desempenho, integração e empacotamento em nível de sistema (SiP) e serviços personalizados. As exigências de armazenamento para a IA no dispositivo diferem essencialmente do ecossistema de armazenamento padrão do passado.

Tal como as GPUs de consumo e as GPUs dedicadas a IA pertencem a ecossistemas completamente distintos, a primeira depende do ecossistema de chips de uso geral; a segunda é construída para produtos de sistema completo de IA. A IA no dispositivo também precisa de soluções de armazenamento personalizadas e profundamente integradas, e não de produtos genéricos de armazenamento padrão. Com base nesse posicionamento preciso, a Jiangbo Long concentra-se em soluções de armazenamento integrado de IA no dispositivo, combinando com precisão cenários diversificados como telemóveis com IA, condução assistida por IA, wearables com IA, PCs com IA e robôs corporais (robôs com presença corporal), entre outros, e orienta a inovação do armazenamento para IA no dispositivo de forma clara para o cenário, complementando as vantagens do armazenamento de IA na cloud.

Com apoio de SPU+iSA, otimização profunda do armazenamento em AI PC, SSD para dados quentes-mornos e frios, poupança acentuada de capacidade de DRAM

Yan Shuyin, vice-presidente da Jiangbo Long e gerente geral do departamento de armazenamento empresarial, afirmou que, com o desenvolvimento contínuo da tecnologia de IA, o modelo tradicional de estratificação de dados está a mudar. Antes, os dados eram maioritariamente divididos em dados frios e quentes; hoje, os cenários com dados mornos tornam-se cada vez mais evidentes. Face a essa mudança, a Jiangbo Long lançou SPU (Storage Processing Unit, unidade de processamento para armazenamento), iSA (Intelligence Storage Agent, agente inteligente de armazenamento) e a tecnologia HLC avançada de cache, para realizar funcionalidades de escalonamento inteligente, em conjunto com desenvolvimento conjunto com os fabricantes de equipamentos, aprofundando a otimização cooperativa entre software e hardware.

Diferentemente do controlador de SSD convencional, a SPU é uma unidade de processamento especializada construída para uma arquitetura de armazenamento inteligente. O chip é fabricado com processo avançado de 5nm; a capacidade máxima por unidade chega a 128TB. Atualmente, a capacidade máxima dos cSSD mainstream chega apenas a 8TB, enquanto as soluções de eSSD de grande capacidade têm custos mais elevados. A SPU equilibra eficazmente o problema entre capacidade e custo, podendo substituir de forma eficiente HDD, oferecendo novas possibilidades para os clientes explorarem soluções eSSD e, simultaneamente, com potencial para reduzir significativamente o custo total de propriedade.

A SPU conta com duas capacidades-chave principais: compressão sem perdas no interior (in-memory/in-storage) e a tecnologia avançada de cache HLC (High Level Cache). A compressão sem perdas no interior atinge uma taxa de compressão média de 2:1; em medições reais, cobre vários tipos de dados como texto/código/bases de dados, poupando de forma significativa a capacidade e o custo do SSD. Além disso, através da tecnologia HLC, consegue fazer o “afundamento” dos dados mornos-frios para o SSD, poupando cerca de 40% da necessidade de capacidade de DRAM.

No local da feira, o autor viu dados de testes reais da Jiangbo Long em conjunto com a AMD, com um sistema de agente baseado no processador Ryzen AI Max+ 395. O equipamento permite o deployment local de um modelo de grande escala de 397B; no cenário de contexto ultra longo de 256K (122B), 128GB de memória funcionam de forma fluida. Assim, a ocupação de DRAM é reduzida em cerca de 40%, oferecendo uma solução prática inovadora para o deployment local eficiente e escalável de modelos ultra grandes e para aplicações em grande escala.

Yan Shuyin analisou que, em geral, os dados de cache KV dos dados mornos ficam armazenados no SSD local; equilibrar capacidade e velocidade de acesso é uma direção importante para o armazenamento de IA no dispositivo. No lado do AI PC, a tecnologia HLC baseia-se na SPU para realizar uma conceção em camadas: a camada de desempenho cria uma zona de cache rápida dedicada à IA, permitindo a descarga de especialistas de grandes modelos / chaves-valor (key-value) (KV); a camada de armazenamento é responsável pelas funções do sistema operativo e pelo armazenamento de dados genéricos. Através de leituras/escritas de alta prioridade e escalonamento de I/O de baixa prioridade, otimiza-se a experiência de IA, reduzindo simultaneamente a necessidade de capacidade de DRAM do terminal e os custos. Em termos simples: através do escalonamento inteligente da tecnologia HLC entre discos SSD heterogéneos, distribui-se SLC ou QLC consoante os diferentes cenários, alcançando um melhor equilíbrio entre desempenho e custo.

Claro que, além da unidade de processamento SPU em nível de hardware, a Jiangbo Long constrói no nível de software um iSA, agente inteligente de armazenamento. Juntos, a combinação de software e hardware fecha o ciclo técnico. Como “cérebro” da SPU, o iSA é um motor de escalonamento inteligente para inferência de IA no dispositivo. Para resolver eficientemente problemas como a enorme quantidade de parâmetros dos modelos MoE, a rápida expansão do KV Cache e o facto de a latência de I/O afetar a fluidez do fluxo de inferência, utiliza-se a descarga de especialistas MoE, a gestão inteligente do KV Cache e algoritmos de prefetch inteligentes para resolver de forma eficiente os desafios de escalonamento do armazenamento para inferência de IA no dispositivo. No caso de otimização conjunta com o equipamento de agente inteligente da AMD, após instalar o iSA no host, este consegue coordenar eficazmente com o SSD para a otimização, melhorando o desempenho global do funcionamento de IA no dispositivo do sistema inteiro.

Armazenamento em HLC em telemóveis com IA com cooperação com UFS; com tamanho extremo para entrar em várias marcas líderes de óculos de IA

No domínio incorporado (embedded), a tecnologia avançada de cache HLC e a integração profunda com UFS permitem a implementação em cenários incorporados de IA no dispositivo. Com base no desenvolvimento conjunto entre a Jiangbo Long e a Unisoc (紫光展锐), e nos dados de teste reais com a plataforma de chips da Unisoc, observa-se que, após 4GB de DDR com a tecnologia HLC, os tempos de resposta de arranque de 20 aplicações (App) são apenas 851ms, aproximando-se dos níveis de configuração normais de DDR 6GB/8GB. Além disso, a Jiangbo Long, com o controlador WM7200 de processo de 14nm, utiliza o produto UFS 2.2; as leituras/escritas sequenciais atingem até 1070MB/s e 1000MB/s. As IOPS de leitura/escrita aleatória atingem respetivamente até 240K e 210K, ultrapassando os níveis da linha principal da indústria. Com isso, assegura-se uma experiência fluida e a vida útil dos dispositivos, ao mesmo tempo que se reduz eficazmente a necessidade de capacidade de DRAM no terminal e se otimiza o custo de BOM.

O vice-presidente da Jiangbo Long e gerente geral do departamento de armazenamento incorporado, Huang Qiang, afirmou que, olhando para os produtos incorporados, no futuro as necessidades de armazenamento da IA no dispositivo se concentrarão sobretudo em três direções: elevado desempenho e grande capacidade, integração em nível de sistema (SIP) e serviços personalizados.

E a linha de produtos de wearables da Jiangbo Long segue exatamente esta tendência: inovação contínua e progresso rápido na implementação das aplicações. Segundo foi apresentado, como um dos poucos fornecedores nacionais de armazenamento que domina a capacidade de desenho do fluxo completo de empacotamento em nível de sistema, a Jiangbo Long consegue integrar, numa única embalagem, vários tipos de chips como SoC, eMMC/UFS, LPDDR, WiFi, Bluetooth e NFC. O eMMC de 5,8mm × 6,3mm apresentado desta vez é o menor produto eMMC atualmente divulgado na indústria. Graças a um desenho de empacotamento extremo, a Jiangbo Long integra altamente as pastilhas de flash e o controlador próprio de elevada conceção. Em comparação com o eMMC de tamanho ultra reduzido anterior de 7,2×7,2mm da Jiangbo Long, reduz cerca de 30% novamente a área de ocupação da placa-mãe, libertando ainda mais espaço valioso para estruturas de wearables como óculos inteligentes e relógios, onde cada centímetro conta.

Outro produto mais recente, o ePOP5x, empilha verticalmente eMMC de elevado desempenho e LPDDR5x DRAM num único corpo de embalagem. A taxa de transferência da LPDDR5x é 8533Mbps, e a espessura é apenas 0,5mm. Este representa mais uma rutura na tecnologia de empacotamento de armazenamento incorporado atual. A característica de ser ultrafino pode encaixar perfeitamente na extremidade da perna de óculos de IA ultraleves; ao mesmo tempo em que se alcança acesso rápido aos dados e execução de alta frequência de memória, o produto fornece um suporte crítico de hardware para criar uma experiência de “wear impercetível” no terminal.

Em termos de desempenho de consumo de energia, os dois novos produtos integram o controlador de eMMC de conceção própria da Jiangbo Long, da série Huiyi Micro, de nova geração. Através de otimização profunda das estratégias de leitura/escrita e do método de gestão do espaço do Flash, o consumo estático de energia dos novos produtos é significativamente reduzido em cerca de 250% face ao produto da geração anterior. Isso alivia de forma eficaz a ansiedade de autonomia de dispositivos de wearables — “carregar todos os dias” — oferecendo uma base de hardware sólida para cenários sempre ligados como ativação por voz de IA durante todo o dia e monitorização de saúde.

No nível de empacotamento e testes (封测), a companhia de tecnologia Yuan Cheng, do grupo da Jiangbo Long, como a sua base de fabrico de empacotamento e testes de alto nível, fornece para produtos de armazenamento de wearables garantia de todo o processo, desde o empacotamento ao nível de wafer até testes de nível de sistema. A Yuan Cheng possui uma linha dedicada ESAT, especializada e adaptada às características dos chips de wearables, capaz de realizar empacotamento ultrafino de alta precisão em camadas e fabrico de empilhamento heterogéneo. Permite realizar testes de fiabilidade rigorosos num intervalo de temperaturas de -40°C a 125°C. Cada chip de armazenamento que sai da fábrica passa por verificações completas de desempenho elétrico, envelhecimento, ciclagem térmica e quedas, garantindo que, mesmo em ambientes de uso exigentes como óculos ao ar livre e relógios de desporto, funcione de forma duradoura e estável.

Huang Qiang referiu que o desenvolvimento do armazenamento incorporado da Jiangbo Long já tem um percurso de quinze anos. Com o pano de fundo atual de grandes modelos de IA, o armazenamento incorporado está a passar de armazenamento padronizado único para integração em sistema. A Jiangbo Long, através de “controlador próprio + algoritmos de firmware + empacotamento e testes avançados”, construiu um ciclo fechado de ponta a ponta desde a definição de chips até a entrega do produto final. Este modelo Foundry de serviço de personalização de toda a cadeia de armazenamento de IA — “controlador próprio + otimização de firmware + empacotamento e testes próprios” — é a capacidade central competitiva que distingue a Jiangbo Long dos fornecedores tradicionais de armazenamento. Permite à Jiangbo Long colaborar em profundidade com os clientes já na fase de definição do produto, fazendo desenho de toda a cadeia de forma personalizada de wafer até produto final para requisitos de capacidade de computação, consumos de energia e restrições estruturais de plataformas específicas para wearables, evoluindo “armazenamento genérico” para “armazenamento definido por cenário”.

Segundo foi apresentado, o armazenamento para vestíveis da Jiangbo Long já entrou na cadeia de fornecimento de vários fabricantes líderes de óculos de IA, e espera-se que, com o rápido crescimento desta categoria de produtos em tendência (produto de grande procura), se torne um ponto potencial de crescimento para a empresa.

Resumo

Quer seja para telemóveis com IA, PCs com IA ou a “caixa de lesma” (lúxia box/caixa de camarão), embora a IA no dispositivo pareça estar muito perto de nós mas ainda não esteja verdadeiramente ao nosso alcance, as soluções de armazenamento de nível de sistema que conseguem suportar a execução local de grandes modelos e agentes são precisamente a direção em que o setor se esforça. O armazenamento integrado da Jiangbo Long, com tecnologias inovadoras e desempenho excelente, continuará a impulsionar a próxima vaga de IA no dispositivo.

Notícias em grande volume, interpretações precisas — tudo na app Sina Finance

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar