Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Sam Altman analisa a estratégia da OpenAI face aos desafios da defesa americana em matéria de IA
Em março de 2025, Sam Altman, CEO da OpenAI, organizou uma sessão pública de perguntas e respostas na plataforma X para esclarecer as circunstâncias em torno do contrato entre a OpenAI e o Departamento de Defesa dos Estados Unidos. Esta troca gerou um grande envolvimento: 6,6 milhões de visualizações e mais de 7 500 respostas, refletindo o interesse crescente da comunidade tecnológica pelas implicações das parcerias de IA com o governo americano.
Negociações prévias e recusas de contratos classificados
Segundo Sam Altman, a OpenAI tinha dialogado apenas sobre colaborações não classificadas nos meses anteriores e tinha deliberadamente recusado várias propostas relacionadas com áreas classificadas. Essas mesmas oportunidades foram posteriormente oferecidas à Anthropic. No entanto, após o Departamento de Defesa dos EUA ter rejeitado a colaboração com a Anthropic, as autoridades aceleraram abruptamente o lançamento de suas iniciativas classificadas com a OpenAI. Altman justificou a decisão de assinar rapidamente este contrato como uma necessidade de « desarmar a situação » e esclareceu que negociou para obter condições iguais para todos os outros laboratórios de IA envolvidos.
Anthropic, classificação e implicações na indústria
Quando questionado sobre a sua ausência de defesa pública da Anthropic, Sam Altman foi direto. Ele qualificou a decisão de classificar a Anthropic como « risco na cadeia de abastecimento » como « catastrófica para a indústria, para o país e para a própria Anthropic ». Segundo ele, trata-se de « uma decisão prejudicial do Departamento de Defesa dos EUA » que espera que seja revista. No entanto, Altman suavizou seu apoio ao sugerir que a Anthropic parecia priorizar a incorporação de cláusulas restritivas específicas no contrato, mais do que o cumprimento da legislação vigente, e que poderia buscar um controle operacional superior ao seu.
Limites éticos e constitucionais da OpenAI
Questionado sobre os limites éticos, Sam Altman afirmou sem rodeios: « Se nos pedirem para fazer algo inconstitucional ou ilegal, sairemos. Venham nos visitar na prisão. » Esta formulação direta ilustra a postura firme da OpenAI quanto aos limites inegociáveis de sua colaboração com o governo.
Democratização versus vigilância: o dilema da IA
O CEO da OpenAI abordou a questão delicada da vigilância no exterior. Reconheceu seu desconforto pessoal com a vigilância estrangeira conduzida pelas forças armadas americanas, afirmando que a « democratização » da IA continua sendo seu princípio orientador, um objetivo potencialmente contradito pelas aplicações militares. Contudo, esclareceu: « Não acho que seja meu papel decidir essa questão. » Esta declaração revela a tensão entre as convicções pessoais de Altman e as realidades da parceria estratégica.
A questão metapolítica: nacionalização e AGI
Ao concluir suas explicações, Sam Altman levantou uma questão « implicitamente presente em muitas perguntas, mas nunca colocada diretamente »: o que aconteceria se o governo dos EUA tentasse nacionalizar a OpenAI ou outros projetos de IA de grande escala? Revelou que « há muito tempo considero que o desenvolvimento de uma AGI talvez devesse estar sob iniciativa governamental », sugerindo assim que o debate sobre o controle da IA vai muito além das parcerias atuais.