A Cerebras inicia roadshow de IPO, com objetivo de $115-$125 por ação

A Cerebras Systems começará a apresentar as suas ações aos investidores na segunda-feira, com planos de vender ações a um preço entre 115 e 125 dólares cada, de acordo com alguém familiarizado com os planos que falou à Reuters.

O fabricante de chips de inteligência artificial está a tentar abrir o capital pela segunda vez. A empresa cancelou a sua primeira tentativa em outubro do ano passado.

A Cerebras reportou resultados financeiros mais fortes para o ano que terminou em 31 de dezembro. A empresa obteve 510 milhões de dólares em receitas, um aumento em relação aos 290,3 milhões de dólares do ano anterior. Também lucrou 1,38 dólares por ação, em comparação com uma perda de 9,90 dólares por ação no ano anterior.

Morgan Stanley, Citigroup, Barclays e UBS estão a tratar da venda de ações.

Indústria está a passar por uma mudança

A estratégia da Cerebras não é aleatória. A indústria de IA está a mudar do desenvolvimento de novos modelos de IA para a sua utilização prática. Esta mudança é uma oportunidade de ouro para pequenas empresas que competem com o monopólio da Nvidia (NASDAQ: NVDA). Como relatado pela Cryptopolitan, nem mesmo a OpenAI está convencida do hardware de inferência da Nvidia.

Isto porque executar modelos de IA, conhecidos como inferência, requer capacidades diferentes do que treiná-los. Isto cria oportunidades para fabricantes de chips especializados encontrarem o seu espaço no mercado. Processar grandes lotes de informação necessita de um equilíbrio diferente de potência de computação, memória e velocidades de transferência de dados do que executar um chatbot de IA ou um assistente de codificação.

Esta variedade de requisitos tornou o mercado de inferência mais diversificado. Algumas tarefas funcionam melhor com chips gráficos tradicionais, enquanto outras precisam de equipamentos mais avançados.

A compra da Groq pela Nvidia em dezembro passado por 20 mil milhões de dólares mostra como isto está a evoluir. A Groq construiu chips com memória SRAM rápida que podiam processar respostas de IA mais rapidamente do que os chips gráficos padrão. Mas a empresa teve dificuldades em escalar porque os seus chips tinham potência de computação limitada e eram baseados em tecnologia mais antiga.

A Nvidia resolveu este problema dividindo o trabalho. Usa os seus chips gráficos normais para a parte pesada de geração de respostas de IA, chamada pré-preenchimento, enquanto usa os chips da Groq para a etapa de decodificação mais rápida, que requer menos computação, mas precisa de acesso rápido aos dados.

Outras grandes empresas estão a fazer algo semelhante. A Amazon Web Services anunciou o seu próprio sistema dividido pouco depois de uma grande conferência de tecnologia. Combina os seus chips Trainium personalizados para o trabalho de pré-preenchimento com os chips de tamanho de wafer da Cerebras para operações de decodificação.

A Intel também entrou na corrida, revelando planos de combinar chips gráficos com processadores de uma startup chamada SambaNova. Os chips gráficos irão lidar com o pré-preenchimento, enquanto os chips da SambaNova encarregam-se da decodificação.

A maioria das pequenas empresas de chips encontrou sucesso com o trabalho de decodificação. A memória SRAM não armazena muita informação, mas é extremamente rápida. Com chips suficientes, ou um chip muito grande como os que a Cerebras fabrica, estes sistemas destacam-se nas tarefas de decodificação. Mas as empresas não param por aí.

Novas tecnologias desafiam a abordagem de chips divididos

A Lumai, outra startup, anunciou esta semana que construiu um chip que usa luz em vez de eletricidade para as operações matemáticas no núcleo do trabalho de IA. Esta abordagem consome muito menos energia do que os chips tradicionais.

A empresa espera que os seus sistemas Iris Tetra, que estão a caminho, entreguem um desempenho de IA de exaOPS, usando apenas 10 quilowatts de energia até 2029.

Os chips combinam componentes baseados em luz e eletricidade, mas a luz realiza a maior parte do trabalho durante a inferência. A Lumai planeia usar estes chips inicialmente como substitutos autónomos dos chips gráficos em tarefas de processamento em lote. Mais tarde, a empresa quer usá-los também para o trabalho de pré-preenchimento.

Nem todos acham que dividir o trabalho entre diferentes chips faz sentido. A Tenstorrent lançou esta semana os seus sistemas Galaxy Blackhole, e o CEO Jim Keller criticou a abordagem.

“Cada empresa na indústria está a juntar-se para construir o acelerador, acelerador, acelerador. CPUs executam código. GPUs aceleram CPUs. TPUs aceleram GPUs. LPUs aceleram TPUs. E assim por diante. Isto leva a soluções complexas que provavelmente não serão compatíveis com mudanças nos modelos e usos de IA. Na Tenstorrent, achámos que algo mais geral e simples funcionaria melhor,” disse Keller.

As mentes mais inteligentes em criptomoedas já leem o nosso boletim informativo. Quer participar? Junte-se a eles.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar