Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Acabei de ler algo que me deixou bastante desconcertado. The New Yorker acaba de publicar uma investigação massiva onde jornalistas como Ronan Farrow obtiveram documentos internos da OpenAI que revelam um padrão preocupante: aparentemente Sam Altman tem mentido sistematicamente ao conselho de administração e aos executivos sobre questões críticas de segurança.
O ponto de partida é brutal. Ilya Sutskever, o principal cientista da OpenAI, compilou um documento de 70 páginas há alguns anos baseado em mensagens do Slack, comunicações de RH e atas de reuniões. Sua conclusão na primeira linha: Sam demonstra um padrão consistente de mentir. Um exemplo concreto que aparece na investigação: em dezembro de 2022, Altman garantiu ao conselho que várias funções do GPT-4 tinham passado por revisão de segurança. Quando solicitaram ver os documentos de aprovação, descobriram que duas das características mais controversas nunca foram revisadas pelo painel de segurança.
Mas o que realmente me chamou a atenção foi o que encontraram nas notas pessoais de Dario Amodei, fundador da Anthropic e ex-responsável de segurança na OpenAI. Mais de 200 páginas onde documenta como a empresa foi recuando passo a passo sob pressão comercial. Um detalhe chave: quando a Microsoft investiu em 2019, negociou uma cláusula de 'fusão e assistência' que supostamente garantia que, se outro concorrente encontrasse uma rota mais segura para a AGI, a OpenAI deveria ajudar. Parece bem na teoria. O problema é que a Microsoft também obteve direito de veto sobre essa mesma cláusula, o que a transformou numa promessa vazia desde o dia da assinatura.
Há algo que soa quase absurdo, mas é completamente real: a equipe de 'superalinhamento' da OpenAI. Altman anunciou publicamente que dedicariam 20% da capacidade de computação existente à pesquisa de alinhamento de IA, com um valor potencial superior a um bilhão de dólares. Foi um anúncio sério, mencionando riscos de extinção humana e tudo mais. Mas quando jornalistas falaram com quatro pessoas que trabalharam nessa equipe, a realidade era diferente: a potência de computação alocada era de apenas entre 1% e 2% do total, além de hardware antigo. A equipe foi dissolvida sem completar sua missão.
Enquanto isso, a CFO da OpenAI, Sarah Friar, tinha sérias divergências com Altman sobre uma possível IPO. Friar acredita que a empresa não está pronta para abrir capital este ano, considerando a quantidade de trabalho pendente e os riscos financeiros do compromisso de Altman de gastar 600 bilhões em capacidade de computação em cinco anos. Mas aqui está o estranho: Friar já não reporta diretamente a Altman, agora reporta a Fidji Simo, que acaba de tirar licença por motivos de saúde. Uma empresa se preparando para uma IPO com essas dinâmicas internas é, bem, complicada.
Um ex-membro do conselho descreveu Altman com duas características simultâneas: um desejo genuíno de agradar em cada interação face a face, mas ao mesmo tempo uma indiferença quase sociopática às consequências de enganar os outros. Essa combinação, segundo o relatório, é rara em pessoas, mas perfeita para um vendedor.
O que me preocupa é que isso não é apenas fofoca corporativa. A OpenAI está desenvolvendo o que eles mesmos descrevem como possivelmente a tecnologia mais poderosa da história humana. Tecnologia que poderia reconfigurar a economia, criar armas bioquímicas em escala, ou realizar ataques cibernéticos. E as salvaguardas de segurança que supostamente protegiam contra esses riscos foram desmanteladas. O ex-cientista principal e o ex-responsável de segurança consideram o CEO pouco confiável. Os executivos da Microsoft o comparam com SBF.
A resposta da OpenAI ao The New Yorker foi minimizadora: disseram que o artigo reiterava eventos já reportados usando afirmações anônimas. Altman não respondeu às acusações específicas, apenas questionou os motivos das fontes.
Dez anos da OpenAI resumidos: um grupo de idealistas cria uma organização sem fins lucrativos para proteger a humanidade dos riscos da IA. Conquistas extraordinárias são alcançadas. O capital chega em massa. A missão começa a ceder. A equipe de segurança é dissolvida. Os críticos desaparecem. A estrutura sem fins lucrativos se transforma em uma entidade com fins lucrativos. O conselho que tinha poder para fechar a empresa agora está cheio de aliados do CEO. A empresa que prometia dedicar 20% de sua potência para proteger a segurança humana agora tem porta-vozes dizendo que a pesquisa sobre segurança existencial 'não é algo que realmente exista'.
E o protagonista dessa história está prestes a levar a OpenAI a uma IPO com uma avaliação superior a 850 bilhões de dólares. Centenas de testemunhas oculares lhe deram a mesma etiqueta: não está sujeito à verdade.