Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Co-Fundador da OpenAI afirma que $110 mil milhões ainda não conseguem atender à procura, com o pré-treinamento a mudar para otimização conjunta de custos
De acordo com a monitorização da 1M AI News, o cofundador da OpenAI Greg Brockman reflectiu, numa entrevista, sobre o salto nas capacidades de programação em IA esperado até Dezembro de 2025. Ele usou um prompt de teste que tinha mantido durante anos para medir o progresso: pedir à IA para construir um website que lhe teria levado meses a concluir quando estava a aprender programação. Ao longo de 2025, esta tarefa exigiu múltiplos prompts e cerca de quatro horas para ser realizada; até Dezembro, podia ser concluída com um único prompt e com alta qualidade. Ele afirmou que o novo modelo permitiu à IA saltar de “ser capaz de completar cerca de 20% das tarefas” para “cerca de 80%”, uma mudança que obriga toda a gente a “reorganizar os fluxos de trabalho em torno da IA”.
Quanto à alocação do financiamento de 110 mil milhões de dólares, Brockman comparou o poder de computação a “contratar vendedores”: enquanto o produto tiver um canal de vendas escalável, contratar mais vendedores pode gerar mais receitas. O poder de computação não é um centro de custos, mas sim um centro de receitas. Ele recordou uma conversa com a sua equipa na véspera do lançamento do ChatGPT: “Perguntaram: ‘Quanto poder de computação devemos comprar?’ Eu disse: ‘Todo ele.’ Responderam: ‘Não, não, não, a sério, quanto devemos comprar?’ Eu disse: ‘Independentemente de como o construirmos, não vamos conseguir acompanhar a procura.’ Este juízo continua válido até hoje, e a aquisição de poder de computação precisa de estar definida com antecedência de 18 a 24 meses. Sobre como utilizar este poder de computação, Brockman revelou que a OpenAI já não está a perseguir apenas o maior escala de pré-treino, mas que está, em vez disso, a optimizar em conjunto as capacidades de pré-treino e os custos de inferência: ‘Não é necessariamente preciso torná-lo o maior possível, porque também é preciso considerar os inúmeros casos de uso de inferência a jusante; o que realmente queremos é a solução óptima de inteligência multiplicada pelo custo.’ No entanto, ele opôs-se firmemente à ideia de que ‘o pré-treino já não é importante’, acreditando que quanto mais inteligente for o modelo base, maior é a eficiência das fases subsequentes de reforço e inferência, e que ainda existe uma ‘necessidade absoluta’ de GPUs Nvidia para suportar um treino centralizado em grande escala.