Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Uma brincadeira sobre "treinar IA com dois livros" que ilustra exatamente que o poder de processamento é a chave
Este gracejo, ao contrário, desfaz a fantasia do “dado minimalista”
Elon Musk brincou ao dizer que o Grok foi treinado com “apenas estes dois livros”, “feito” — um sarcasmo típico à Musk. Ele está a criticar aquela fantasia de que é possível obter uma IA competitiva sem enorme poder de computação. A realidade é que a xAI está a avançar o treino num enorme cluster de GPUs. Quais são exatamente esses dois livros que ele não disse (e isso, na verdade, é irrelevante), mas a intenção é clara: naquelas áreas em que a Lei de Escala continua a dominar, ele está a troçar de narrativas demasiado simplificadas.
Este tweet provocou reações polarizadas. Alguns tomam-no como um indício de treino eficiente; outros percebem que é mais uma tentativa de desviar atenções — na prática, o que a xAI está a fazer é avançar de forma maciça o reforço de aprendizagem na sua infraestrutura Colossus. As pontuações do Grok (por exemplo, o Grok 3 Think a obter 93,3% no AIME) vêm do poder de computação e do paradigma de treino, não de “ter lido dois livros de capa mole”.
Ganhar com poder de computação; “dados minimalistas” não se sustenta
A disseminação deste tweet expõe o desfasamento entre slogans “fáceis de viralizar” (“só dois livros!”) e o “motor real” para construir modelos fortes (treino massivo em superclusters). À medida que a comunidade encara com mais atenção a conformidade dos dados de treino e o risco de fugas — por exemplo, o registo mais recente da Stanford sobre o fenómeno de modelos reescreverem romances protegidos por direitos — isso torna-se ainda mais crítico.
A xAI está a posicionar o Grok 4 como o nível mais forte de inferência do tipo agente ao aplicar RL à escala de treino na pré-formação. Diferente de abordagens mais cautelosas da OpenAI e da Anthropic, a xAI, por um lado, brinca com “eficiência” e, por outro, entrega ferramentas multimodais. Interpretar este tweet como “open source” ou “revolução da eficiência” é, em grande parte, uma expetativa emocional — os 6 mil milhões de dólares (C-round) da xAI são maioritariamente destinados à infraestrutura, e não a “simplificar um dataset” ao extremo.
Isto também gera uma desconexão entre pricing e narrativa. Se o mercado se fixar demasiado na eficiência de custos, pode ignorar o peso maior das barreiras de poder de computação. A xAI tem uma vantagem relativa na infraestrutura; e empresas como a Meta, se não conseguirem obter uma escala equivalente de RL e poder de computação para treino, podem ficar para trás na profundidade da inferência.
Conclusão: O verdadeiro fator que este gracejo encobre é a liderança da xAI em poder de computação. Quem já não avançou para uma mudança em direção a RL escalável está atrasado; os investidores que apostam em poder de computação e em barreiras de infraestrutura encontram-se numa fase inicial; compradores empresariais que agora adotam ferramentas do Grok baseadas em agentes terão mais vantagem do que os adversários que continuam fiéis ao “mito dos dados minimalistas”.
Importância: Média
Categoria: Insights técnicos, tendências da indústria, impacto no mercado
Julgamento: No momento em que esta narrativa entra, é uma “vantagem inicial” para os financiadores e compradores empresariais que apostam em poder de computação e em infraestrutura de RL, e já é “tarde demais” para os construtores que ainda insistem em rotas de dados minimalistas. Quem beneficia mais, de forma prática, são os intervenientes que controlam ou integram clusters massivos de GPUs e stacks de engenharia de RL: construtores de infraestrutura e fundos de médio e longo prazo tendem a ser os que mais beneficiam, e os compradores empresariais dispostos a implementar cedo a toolchain de agentes do Grok também ficam em vantagem; para traders de curto prazo, a vantagem marginal é limitada, salvo exista um catalisador claro de fornecimento de poder de computação.