Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
「Comprar quanta capacidade de computação? Tudo」: Co-fundador da OpenAI afirma que os 110 mil milhões de dólares ainda não atendem à procura, o pré-treinamento já mudou para otimização conjunta de custos
De acordo com o monitorização de 1M AI News, o cofundador da OpenAI Greg Brockman, numa entrevista, recordou o salto significativo nas capacidades de programação por IA em Dezembro de 2025. Ele usou um teste prompt que guardou durante anos para medir o progresso: fazer com que a IA construísse um website que, na altura em que ele aprendeu a programar, lhe tinha levado meses a concluir. Ao longo de 2025, esta tarefa exigia várias rondas de prompts e cerca de quatro horas para ficar bem; em Dezembro, com um único prompt ficou feito e com qualidade muito boa. Ele afirmou que o novo modelo fez com que a IA passasse de «conseguir concluir cerca de 20% das tarefas» para «cerca de 80%», e que esta mudança obrigou todos a «terem de reorganizar os fluxos de trabalho em torno da IA».
Quanto ao destino dos 1100 mil milhões de dólares de financiamento, Brockman comparou o poder de computação a «contratar vendedores»: desde que o produto tenha canais de vendas escaláveis, quanto mais vendedores contratar, mais receita gera. O poder de computação não é um centro de custos, mas um centro de receitas. Ele recordou uma conversa com a equipa na véspera do lançamento do ChatGPT: «Eles perguntaram ‘quanto poder de computação devemos comprar?’ Eu disse ‘todo’. Eles disseram ‘não, não, a sério, afinal de contas, quanto devemos comprar?’ Eu disse ‘o que quer que construamos, não vai conseguir acompanhar a procura.’» Este juízo continua válido até hoje, e a compra de poder de computação precisa de ser assegurada com antecedência de 18 a 24 meses.
Sobre como usar este poder de computação, Brockman revelou que a OpenAI já não procura apenas a maior escala de treino prévio, mas sim otimizar em conjunto a capacidade de treino prévio e o custo de inferência: «Não é necessariamente preciso fazê-lo o mais grande possível, porque também há que ter em conta os muitos cenários de uso de inferência downstream; aquilo que verdadeiramente pretende é a melhor solução de inteligência multiplicada pelo custo.» Mas ele opôs-se claramente à ideia de que «o treino prévio já não importa», argumentando que quanto mais inteligente for o modelo base, maior será a eficiência nas fases subsequentes de aprendizagem por reforço e de inferência; ainda assim, é «absolutamente necessário» recorrer a GPUs Nvidia para suportar treino centralizado em grande escala.