Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Os investigadores de IA estão a soar o alarme à medida que saem pela porta
Pesquisadores de IA estão soando o alarme na saída da porta
Análise por Allison Morrow, CNN
Qua, 18 de fevereiro de 2026 às 22:21 GMT+9 5 min de leitura
Vários funcionários de destaque em IA decidiram desistir, com alguns alertando explicitamente que as empresas para as quais trabalhavam estão avançando rápido demais e minimizando as deficiências da tecnologia. - d3sign/Moment RF/Getty Images
_Uma versão desta história apareceu na newsletter Nightcap da CNN Business. Para recebê-la na sua caixa de entrada, inscreva-se gratuitamente _aqui.
“o mundo está em perigo”, advertiu o ex-chefe da equipe de Pesquisa de Salvaguardas da Anthropic ao sair. Um pesquisador da OpenAI, também de saída, disse que a tecnologia tem “um potencial para manipular usuários de maneiras que não temos as ferramentas para entender, quanto mais prevenir.”
Eles fazem parte de uma onda de pesquisadores e executivos de inteligência artificial que não estão apenas deixando seus empregadores — estão tocando o alarme alto na saída, chamando atenção para o que veem como sinais de alerta vermelhos.
Embora o Vale do Silício seja conhecido por alta rotatividade, a última mudança ocorre enquanto líderes de mercado como OpenAI e Anthropic correm em direção a IPOs que podem impulsionar seu crescimento enquanto também convidam uma análise rigorosa de suas operações.
Nos últimos dias, vários funcionários de destaque em IA decidiram desistir, com alguns alertando explicitamente que as empresas para as quais trabalhavam estão avançando rápido demais e minimizando as deficiências da tecnologia.
Zoë Hitzig, pesquisadora da OpenAI nos últimos dois anos, anunciou sua renúncia na quarta-feira em um artigo no New York Times, citando “profundas reservas” sobre a estratégia de publicidade emergente da OpenAI. Hitzig, que alertou sobre o potencial do ChatGPT para manipular usuários, disse que o arquivo de dados de usuários do chatbot, construído com “medos médicos, problemas de relacionamento, crenças sobre Deus e a vida após a morte”, apresenta um dilema ético precisamente porque as pessoas acreditavam que estavam conversando com um programa que não tinha motivos ocultos.
A crítica de Hitzig ocorre enquanto o site de notícias de tecnologia Platformer relata que a OpenAI dissolveu sua equipe de “alinhamento de missão”, criada em 2024 para promover o objetivo da empresa de garantir que toda a humanidade beneficie-se da busca por uma “inteligência artificial geral” — uma IA hipotética capaz de pensamento ao nível humano.
A OpenAI não respondeu imediatamente a um pedido de comentário.
O chefe da equipe de Pesquisa de Salvaguardas da Anthropic disse que “ao longo do meu tempo aqui, vi repetidamente como é difícil realmente deixar nossos valores governarem nossas ações.” - Gabby Jones/Bloomberg/Getty Images
Também nesta semana, Mrinank Sharma, chefe da equipe de Pesquisa de Salvaguardas da Anthropic, publicou uma carta enigmática na terça-feira anunciando sua decisão de deixar a empresa e alertando que “o mundo está em perigo.”
A carta de Sharma fez apenas referências vagas à Anthropic, a empresa por trás do chatbot Claude. Ele não explicou por que estava saindo, mas observou que era “claro para mim que chegou a hora de seguir em frente” e que “ao longo do meu tempo aqui, vi repetidamente como é difícil realmente deixar nossos valores governarem nossas ações.”
A Anthropic disse à CNN, em um comunicado, que era grata pelo trabalho de Sharma no avanço da pesquisa em segurança de IA. A empresa observou que ele não era o chefe de segurança nem responsável por salvaguardas mais amplas na empresa.
Enquanto isso, na xAI, dois cofundadores saíram em um período de 24 horas nesta semana, anunciando suas saídas no X. Isso deixa apenas metade dos fundadores da xAI na empresa, que está se fundindo com a SpaceX de Elon Musk para criar a empresa privada mais valiosa do mundo. Pelo menos cinco outros funcionários da xAI anunciaram suas saídas nas redes sociais na semana passada.
Não ficou imediatamente claro por que os últimos cofundadores da xAI saíram, e a xAI não respondeu a um pedido de comentário. Em uma postagem nas redes sociais na quarta-feira, Musk disse que a xAI foi “reorganizada” para acelerar o crescimento, o que “infelizmente exigiu a separação de algumas pessoas.”
Embora não seja incomum que talentos de alto nível se movimentem em uma indústria emergente como a IA, a escala das saídas em um período tão curto na xAI chama atenção.
A startup enfrentou uma reação global negativa por seu chatbot Grok, que foi permitido gerar imagens pornográficas não consensuais de mulheres e crianças por semanas antes que a equipe interviesse para pará-lo. O Grok também tem sido propenso a gerar comentários