Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Inteligência Concentrada: Nova Família de Modelos Bonsai AI Permite IA de Alto Desempenho Além do Data Center
Em Breve
A PrismML surgiu do modo oculto e lançou a Bonsai, um pequeno modelo de IA open source que evidencia uma forte inteligência para o seu tamanho e consegue ser executado em hardware de consumo.
Nascida da investigação realizada na Caltech, a PrismML afirmou que o seu trabalho se centra em maximizar a “densidade de inteligência”, uma medida da capacidade útil que um modelo consegue entregar por unidade de tamanho e pegada de implementação. Esta abordagem contrasta com o desenvolvimento tradicional de IA, que normalmente dá prioridade ao aumento do tamanho do modelo e da contagem de parâmetros, à custa da capacidade de implementação e da eficiência.
O modelo de topo do laboratório, o 1-bit Bonsai 8B, apresenta um design totalmente de 1-bit em todos os componentes, incluindo embeddings, camadas de atenção, camadas de MLP e a cabeça de saída, sem camadas de retrocompatibilidade com maior precisão. Com 1,15 GB, o modelo é aproximadamente 14 vezes mais pequeno do que modelos comparáveis de 16-bit na mesma classe de parâmetros, ainda assim a PrismML relata que mantém um desempenho competitivo em benchmarks standard. O tamanho reduzido permite a implementação em dispositivos como iPhones, iPads e Macs, bem como em GPUs standard, proporcionando inferência mais rápida e menor utilização de memória do que modelos tradicionais de grande escala.
A PrismML sublinha que a inovação não é apenas sobre desempenho, mas também sobre onde a IA pode operar. Modelos menores e eficientes permitem aplicações com menor latência, maior privacidade através de computação no dispositivo e funcionalidade contínua em ambientes offline ou com largura de banda limitada
As aplicações potenciais incluem agentes persistentes no dispositivo, robótica em tempo real, copilot de empresas e ferramentas nativas de IA concebidas para contextos seguros ou com recursos limitados. A PrismML defende que a inteligência concentrada alarga o espaço de design para a IA, tornando os sistemas mais responsivos, fiáveis e amplamente implementáveis.
A expandir a Bonsai: Modelos menores de 1-bit estendem a eficiência e a inteligência a dispositivos de margem
Além da Bonsai 8B, a PrismML apresentou modelos mais pequenos, a Bonsai 4B e a 1.7B de 1-bit, que estendem os mesmos princípios de eficiência e densidade de inteligência para tamanhos de modelo reduzidos. Demonstrações iniciais mostram elevada capacidade de processamento (throughput), eficiência energética e precisão competitiva em benchmarks ao longo da família. O laboratório também referiu que os modelos funcionam de forma eficaz em hardware comercial atual e que dispositivos futuros otimizados para inferência de 1-bit poderão proporcionar ganhos de eficiência ainda maiores.
O lançamento da PrismML representa uma mudança mais ampla no desenvolvimento de IA, dando ênfase à inteligência concentrada e à portabilidade em vez da mera escala. O laboratório imagina um futuro em que a IA avançada opera de forma fluida entre dispositivos na nuvem e na margem (edge), tornando sistemas inteligentes acessíveis onde quer que sejam necessários. Os modelos Bonsai de 1-bit estão disponíveis sob a licença Apache 2.0, suportando a implementação em dispositivos Apple, GPUs NVIDIA e uma variedade de outras plataformas.