Google desenvolveu um «semelhante ao Pied Piper» para acelerar os cálculos em redes neurais em oito vezes - ForkLog: criptomoedas, IA, singularidade, futuro

robot
Geração de resumo em curso

Google 2025# A Google desenvolveu um «semelhante ao Pied Piper» para acelerar os cálculos em redes neurais em oito vezes

A divisão de investigação do Google apresentou o TurboQuant — um algoritmo de compressão de memória para inteligência artificial. Os utilizadores compararam a inovação com a tecnologia da startup Pied Piper da série «Silicon Valley».

TurboQuant é o novo Pied Piper 🤣 pic.twitter.com/iMAYJs02zt

— Justin Trimble (@justintrimble) 25 de março de 2026

O TurboQuant reduz significativamente os requisitos de recursos para o funcionamento de grandes modelos de linguagem e sistemas de pesquisa vetorial.

A inteligência artificial manipula matrizes multidimensionais complexas que armazenam informações sobre palavras ou imagens. Estes dados ocupam muito espaço na cache e atrasam a geração de respostas. Os métodos tradicionais de compressão exigem armazenamento de variáveis adicionais, o que muitas vezes anula os benefícios da otimização.

O TurboQuant resolve o problema do consumo excessivo de memória através de dois mecanismos. O primeiro algoritmo converte vetores para o sistema de coordenadas polares e comprime a maior parte dos dados. O segundo funciona como um controlador matemático, usando apenas um bit de memória para eliminar erros residuais ocultos.

O CEO da Cloudflare, Matthew Prince, comparou o algoritmo com as conquistas do modelo chinês DeepSeek, que demonstrou alta eficiência com custos mínimos de hardware.

Este é o DeepSeek da Google. Ainda há muito espaço para otimizar a inferência de IA em termos de velocidade, uso de memória, consumo de energia e utilização multi-inquilino. Muitas equipas na @Cloudflare estão focadas nessas áreas. #fiquematentos https://t.co/hHoY4sLT2I

— Matthew Prince 🌥 (@eastdakota) 25 de março de 2026

Os desenvolvedores testaram a tecnologia em modelos abertos como Llama, Gemma e Mistral. O algoritmo comprimiu o cache para três bits sem perda de qualidade nas respostas. O consumo de memória foi reduzido pelo menos seis vezes, e a velocidade de cálculo em aceleradores gráficos H100 aumentou oito vezes.

A inovação não requer treino adicional das redes neurais. Segundo a empresa, a tecnologia será integrada nos algoritmos de pesquisa e nos seus próprios produtos de IA, incluindo o Gemini. A apresentação pública do projeto está prevista para as conferências especializadas ICLR e AISTATS em 2026.

Recordamos que, a 25 de março, o Google revelou os seus planos de transição para a criptografia pós-quântica.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar