Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Acabei de ler uma investigação que saiu ontem no The New Yorker que deixou muita gente em choque. Ronan Farrow e Andrew Marantz entrevistaram mais de 100 pessoas, conseguiram memorandos internos nunca divulgados e até 200+ páginas de anotações pessoais de Dario Amodei (fundador da Anthropic, que saiu da OpenAI). O resultado é basicamente uma bomba.
Tudo começa com um documento de 70 páginas que Ilya Sutskever, o cientista-chefe da OpenAI, compilou no outono de 2023. Ele juntou mensagens do Slack, comunicações com RH, atas de reuniões. Objetivo? Responder uma pergunta simples: Sam Altman, que controla possivelmente a tecnologia mais perigosa da história, pode ser confiável? A resposta de Sutskever na primeira linha: Sam demonstra um padrão consistente de... mentiras.
Os exemplos são bem específicos. Em dezembro de 2022, Altman garantiu ao conselho que funcionalidades do GPT-4 já tinham passado por revisão de segurança. Quando pediram os documentos de aprovação, descobriram que duas das mais controversas (ajuste personalizado e implantação de assistente pessoal) nunca foram aprovadas. Depois teve o caso da Índia, onde Microsoft lançou ChatGPT antes das revisões de segurança terminarem. Sutskever também anotou que Altman teria dito à CTO Mira Murati que o processo de segurança não era tão importante porque o conselheiro jurídico já tinha aprovado. Quando Murati conferiu com o conselheiro jurídico? Ele respondeu: "Não faço ideia de onde Sam tirou isso".
Mas o mais gelado é sobre a equipe de "superalinhamento". Em meados de 2023, Altman contactou um estudante de Berkeley pesquisando alinhamento de IA, super preocupado com o problema, falando em um prêmio de pesquisa de 1 bilhão de dólares. O cara saiu da faculdade, entrou na OpenAI. Aí Altman muda de ideia: cria uma equipe interna em vez de prêmios, e anuncia publicamente que vai dedicar 20% da capacidade de computação da empresa (potencial de mais de 1 bilhão). Linguagem extremamente séria, falando em "extinção humana" se o alinhamento não fosse resolvido.
Na realidade? Quatro pessoas que trabalharam lá dizem que foi alocado só 1-2% da capacidade total, com hardware antigo. A equipe foi desmantelada sem completar nada. Quando jornalistas pediram para entrevistar responsáveis pela pesquisa de "segurança existencial", a resposta da assessoria de imprensa foi: "Isso não é uma coisa que realmente existe".
E tem mais. Sarah Friar, CFO da OpenAI, discordou seriamente com Altman sobre o IPO. Ela acha que não tá pronto ainda - muita burocracia pendente e o risco da promessa de Altman de gastar 600 bilhões em capacidade de computação é muito alto. Mas Altman quer acelerar pro Q4 deste ano. O absurdo? Friar não relata mais direto pra Altman. Desde agosto de 2025 relata pro Fidji Simo, CEO de negócios de apps. E Simo tá de licença médica desde semana passada.
Um ex-membro do conselho descreveu Altman assim: ele tem desejo extremo de agradar em interações cara a cara, mas ao mesmo tempo uma indiferença quase sociopática com as consequências de enganar. Raro demais essa combinação. Mas pra um vendedor? É o dom perfeito. Até executivos da Microsoft não aguentam mais, dizendo que Altman "distorceu fatos, quebrou promessas e constantemente revogou acordos". Um chegou a comparar com Bernie Madoff ou SBF.
Agora, por que isso importa tanto? Porque OpenAI não é uma empresa de tech normal. Tá desenvolvendo tecnologia capaz de reestruturar a economia global, criar armas bioquímicas em escala ou lançar ataques cibernéticos. Todos os mecanismos de segurança são basicamente formais agora. A missão sem fins lucrativos virou corrida pro IPO. O ex-cientista-chefe considera Altman inconfiável. O responsável por segurança saiu e fundou Anthropic por divergências fundamentais sobre como IA deveria ser desenvolvida.
Gary Marcus, professor de IA em NYU, escreveu depois: se um futuro modelo da OpenAI conseguir criar armas bioquímicas ou ataques cibernéticos catastróficos, você realmente se sente seguro deixando Altman decidir sozinho se libera ou não?
A resposta da OpenAI? Basicamente ignorou as acusações específicas, não negou os memorandos, só questionou motivos das fontes. Altman não respondeu diretamente.
Dez anos da OpenAI em um parágrafo: grupo de idealistas cria ONG preocupada com riscos de IA, consegue avanços notáveis, atrai capital massivo, capital exige retorno, missão cede espaço, equipe de segurança desmantelada, dissidentes expulsos, estrutura sem fins lucrativos vira entidade lucrativa, conselho que podia encerrar a empresa agora tá cheio de aliados do CEO. Mais de cem testemunhas usaram o mesmo rótulo pro protagonista: "não é restringido pela verdade". E agora tá indo pro IPO com avaliação acima de 850 bilhões.