Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
As empresas estão a abandonar a OpenAI em favor de modelos de código aberto que treinam elas próprias
Headline
As empresas estão a treinar os seus próprios modelos de IA em vez de pagarem pela OpenAI
Summary
Clement Delangue, CEO da Hugging Face, twittou que empresas como Pinterest, Airbnb, Notion, Cursor e Intercom agora acham melhor, mais barato e mais rápido treinar modelos de código aberto internamente em vez de usar APIs proprietárias. Ele afirma que muitos outros estão a fazer isso de forma discreta.
As provas são mistas. O blog de engenharia da Pinterest confirma que ajustaram modelos LLM de código aberto para corresponder ao desempenho anterior a menos de 10% do custo. A Intercom lançou o Apex 1.0, um modelo personalizado que dizem superar o GPT-5.4, enquanto funciona mais rápido e mais barato. A Airbnb utiliza o Qwen de código aberto da Alibaba para o atendimento ao cliente, citando velocidade e acessibilidade em relação ao ChatGPT.
Mas não há provas públicas para as alegações da Notion ou da Cursor.
Analysis
Delangue dirige a Hugging Face, por isso tem razões óbvias para promover esta narrativa. Dito isto, os exemplos verificados são reais.
O padrão faz sentido: as arquiteturas LLM base estão a tornar-se mercadorias. O valor agora vem do ajuste fino nos seus próprios dados. A Intercom fala sobre um “flywheel” onde as interações com os clientes melhoram o seu modelo. A Pinterest adaptou modelos especificamente para conteúdo visual.
Isto corresponde ao que estamos a ver em outros lugares. A GitLab reportou que empresas em indústrias regulamentadas estão a mover-se para modelos auto-hospedados por razões de privacidade, conformidade e controlo de custos. A Airbnb construiu clusters elásticos alimentados por Ray para treinar modelos de até 12B de parâmetros internamente.
Para a OpenAI e a Anthropic, isso pode significar perder quota de mercado em tarefas de alto volume e sensíveis ao custo. Elas precisarão competir em capacidades que o treino interno não pode replicar facilmente.
As alegações não verificadas (Notion, Cursor) sugerem que Delangue pode estar a exagerar a extensão desta situação. Algumas empresas estão definitivamente a fazer esta mudança. Se é uma tendência universal é menos claro.
Impact Assessment