Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
A Cerebras inicia roadshow de IPO, com objetivo de $115-$125 por ação
A Cerebras Systems começará a apresentar as suas ações aos investidores na segunda-feira, com planos de vender ações a um preço entre 115 e 125 dólares cada, de acordo com alguém familiarizado com os planos que falou à Reuters.
O fabricante de chips de inteligência artificial está a tentar abrir o capital pela segunda vez. A empresa cancelou a sua primeira tentativa em outubro do ano passado.
A Cerebras reportou resultados financeiros mais fortes para o ano que terminou em 31 de dezembro. A empresa obteve 510 milhões de dólares em receitas, um aumento em relação aos 290,3 milhões de dólares do ano anterior. Também lucrou 1,38 dólares por ação, em comparação com uma perda de 9,90 dólares por ação no ano anterior.
Morgan Stanley, Citigroup, Barclays e UBS estão a tratar da venda de ações.
Indústria está a passar por uma mudança
A estratégia da Cerebras não é aleatória. A indústria de IA está a mudar do desenvolvimento de novos modelos de IA para a sua utilização prática. Esta mudança é uma oportunidade de ouro para pequenas empresas que competem com o monopólio da Nvidia (NASDAQ: NVDA). Como relatado pela Cryptopolitan, nem mesmo a OpenAI está convencida do hardware de inferência da Nvidia.
Isto porque executar modelos de IA, conhecidos como inferência, requer capacidades diferentes do que treiná-los. Isto cria oportunidades para fabricantes de chips especializados encontrarem o seu espaço no mercado. Processar grandes lotes de informação necessita de um equilíbrio diferente de potência de computação, memória e velocidades de transferência de dados do que executar um chatbot de IA ou um assistente de codificação.
Esta variedade de requisitos tornou o mercado de inferência mais diversificado. Algumas tarefas funcionam melhor com chips gráficos tradicionais, enquanto outras precisam de equipamentos mais avançados.
A compra da Groq pela Nvidia em dezembro passado por 20 mil milhões de dólares mostra como isto está a evoluir. A Groq construiu chips com memória SRAM rápida que podiam processar respostas de IA mais rapidamente do que os chips gráficos padrão. Mas a empresa teve dificuldades em escalar porque os seus chips tinham potência de computação limitada e eram baseados em tecnologia mais antiga.
A Nvidia resolveu este problema dividindo o trabalho. Usa os seus chips gráficos normais para a parte pesada de geração de respostas de IA, chamada pré-preenchimento, enquanto usa os chips da Groq para a etapa de decodificação mais rápida, que requer menos computação, mas precisa de acesso rápido aos dados.
Outras grandes empresas estão a fazer algo semelhante. A Amazon Web Services anunciou o seu próprio sistema dividido pouco depois de uma grande conferência de tecnologia. Combina os seus chips Trainium personalizados para o trabalho de pré-preenchimento com os chips de tamanho de wafer da Cerebras para operações de decodificação.
A Intel também entrou na corrida, revelando planos de combinar chips gráficos com processadores de uma startup chamada SambaNova. Os chips gráficos irão lidar com o pré-preenchimento, enquanto os chips da SambaNova encarregam-se da decodificação.
A maioria das pequenas empresas de chips encontrou sucesso com o trabalho de decodificação. A memória SRAM não armazena muita informação, mas é extremamente rápida. Com chips suficientes, ou um chip muito grande como os que a Cerebras fabrica, estes sistemas destacam-se nas tarefas de decodificação. Mas as empresas não param por aí.
Novas tecnologias desafiam a abordagem de chips divididos
A Lumai, outra startup, anunciou esta semana que construiu um chip que usa luz em vez de eletricidade para as operações matemáticas no núcleo do trabalho de IA. Esta abordagem consome muito menos energia do que os chips tradicionais.
A empresa espera que os seus sistemas Iris Tetra, que estão a caminho, entreguem um desempenho de IA de exaOPS, usando apenas 10 quilowatts de energia até 2029.
Os chips combinam componentes baseados em luz e eletricidade, mas a luz realiza a maior parte do trabalho durante a inferência. A Lumai planeia usar estes chips inicialmente como substitutos autónomos dos chips gráficos em tarefas de processamento em lote. Mais tarde, a empresa quer usá-los também para o trabalho de pré-preenchimento.
Nem todos acham que dividir o trabalho entre diferentes chips faz sentido. A Tenstorrent lançou esta semana os seus sistemas Galaxy Blackhole, e o CEO Jim Keller criticou a abordagem.
“Cada empresa na indústria está a juntar-se para construir o acelerador, acelerador, acelerador. CPUs executam código. GPUs aceleram CPUs. TPUs aceleram GPUs. LPUs aceleram TPUs. E assim por diante. Isto leva a soluções complexas que provavelmente não serão compatíveis com mudanças nos modelos e usos de IA. Na Tenstorrent, achámos que algo mais geral e simples funcionaria melhor,” disse Keller.
As mentes mais inteligentes em criptomoedas já leem o nosso boletim informativo. Quer participar? Junte-se a eles.