Pagar com
USD
Comprar e vender
Hot
Compre e venda criptomoedas através da Apple Pay, cartões, Google Pay, transferências bancárias e muito mais
P2P
0 Fees
Taxas zero, mais de 400 opções de pagamento e compra e venda fácil de criptomoedas
Cartão Gate
Cartão de pagamento de criptomoedas, que permite transações globais sem falhas.
Básico
Negociação à Vista
Negoceie criptomoedas livremente
Margem
Aumente o seu lucro com a alavancagem
Converter e investir automaticamente
0 Fees
Opere qualquer volume sem tarifas nem derrapagem
ETF
Obtenha exposição a posições alavancadas de uma forma simples
Pré-mercado
Negoceie novos tokens antes de serem oficialmente listados
Avançado
DEX
Negociar on-chain com a Gate Wallet
Alpha
Pontos
Obtenha tokens promissores numa negociação simplificada on-chain
Bots
Negoceie com um clique com estratégias inteligentes de execução automática
Copiar
Join for $500
Aumente a riqueza seguindo os negociadores líderes
Negociação CrossEx
Beta
Um saldo de margem, partilhado entre plataformas
Futuros
Centenas de contratos liquidados em USDT ou BTC
TradFi
Ouro
Negoceie ativos tradicionais globais com USDT num único local
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para ganhar recompensas generosas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain e desfrute de recompensas de airdrop!
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Compre na baixa e venda na alta para obter lucros com as flutuações de preços
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
A gestão personalizada do património potencia o crescimento dos seus ativos
Gestão de património privado
Gestão de ativos personalizada para aumentar os seus ativos digitais
Fundo Quant
A melhor equipa de gestão de ativos ajuda-o a lucrar sem complicações
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Sem liquidação forçada antes do vencimento, ganhos alavancados sem preocupações
Cunhagem de GUSD
Utilize USDT/USDC para cunhar GUSD y obter rendimentos ao nível do Tesouro
A rivalidade entre a Anthropic e a OpenAI e a sua disputa com o Pentágono expõem um problema mais profundo com a segurança da IA
Bem-vindo ao Eye on AI, com a repórter de IA Sharon Goldman. Nesta edição: Trump enfrenta um problema com centros de dados de IA antes das eleições de meio de mandato… Não confie na IA para preencher os seus impostos… A ferramenta de IA Claude, da Anthropic, é central na campanha dos EUA no Irã, em meio a uma amarga disputa.
Vídeo Recomendado
O debate sobre segurança em IA muitas vezes foca na própria tecnologia — quão poderosos os modelos podem se tornar ou quais riscos podem representar. Mas o conflito desta semana envolvendo Anthropic, OpenAI e o Pentágono aponta para um problema mais profundo: quanta influência sobre o futuro da IA está concentrada nas mãos de poucos líderes corporativos e funcionários do governo que decidem como esses sistemas são construídos, implantados e utilizados.
Durante anos, críticos da indústria alertaram sobre o risco de “captura industrial” — um futuro em que o desenvolvimento de sistemas de IA poderosos fica concentrado entre algumas empresas que trabalham de perto com governos, deixando a segurança desses sistemas dependente dos incentivos e rivalidades das pessoas que os controlam. Em 2023, por exemplo, o pesquisador Yoshua Bengio afirmou que o potencial de controle do setor de IA por poucas empresas era o “segundo maior problema” atrás dos riscos existenciais trazidos pela tecnologia.
Portanto, não é particularmente tranquilizador ler ontem sobre o desprezo que o CEO da Anthropic, Dario Amodei, expressou em relação ao CEO da OpenAI, Sam Altman, em um memorando vazado que Amodei escreveu para os funcionários na sexta-feira. A mensagem irritada de Amodei, que aparentemente foi enviada pelo Slack da Anthropic a todos os seus funcionários, veio após a OpenAI anunciar um acordo para fornecer IA ao Pentágono e o Secretário de Guerra, Pete Hegseth, declarar a Anthropic como um “risco na cadeia de suprimentos” por não ter fechado um acordo semelhante com seu departamento.
Amodei chamou a comunicação da OpenAI de “mentirosa”, “teatro de segurança” e “um exemplo de quem eles realmente são”, enquanto descrevia muitos comentários de Altman como “mentiras descaradas” e “gaslighting”.
Altman também fez críticas públicas à Anthropic. Recentemente, chamou uma das campanhas da empresa no Super Bowl de “claramente desonesta” e a acusou de “duplipensar”. A rivalidade também se manifestou de forma mais simbólica: em uma cúpula recente, Altman e Amodei viralizaram ao se recusarem a segurar as mãos para uma foto de grupo com o Primeiro-Ministro Narendra Modi.
Com o governo dos EUA tomando pouca ação para regular a IA — e os esforços internacionais em segurança de IA praticamente parados — o mundo tem dependido efetivamente da autorregulação da indústria. Tanto a OpenAI quanto a Anthropic apoiaram publicamente esse paradigma e assinaram compromissos voluntários de segurança. Também colaboraram às vezes na realização de avaliações independentes de segurança dos modelos uma da outra antes de seu lançamento.
Mas quando os líderes dos dois laboratórios de IA mais influentes parecem incapazes de se entender, e a competição entre eles é tão acirrada, surge uma questão desconfortável: quanto de cooperação em segurança podemos realmente esperar?
A pressão da competição já impactou ambas as empresas em relação à segurança em IA. A Anthropic revisou recentemente sua Política de Escalonamento Responsável para afirmar que não deixará de desenvolver um novo modelo apenas por não saber ainda como torná-lo seguro. E a OpenAI fez seus próprios ajustes, removendo proibições explícitas ao uso militar e de guerra em suas políticas em 2024, e mudando seu foco de pesquisa de segurança para desenvolvimento de produtos, a ponto de o ex-líder de superalinhamento, Jan Leike (que saiu para a Anthropic em meados de 2024), ter escrito no X que “a cultura e os processos de segurança na OpenAI ficaram em segundo plano diante de produtos brilhantes.”
A abordagem atual de segurança assume que empresas e governos agirão com moderação. Mas o futuro da segurança em IA pode depender de como um pequeno grupo de players poderosos navega pelas pressões da competição, geopolitica e até das novelas de Silicon Valley.
Com isso, aqui estão mais notícias sobre IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SOBRE IA
Por que o fundo de hedge de IA de Leopold Aschenbrenner aposta pesado em empresas de energia e mineradoras de bitcoin para impulsionar a corrida pela ‘superinteligência’ — por Sharon Goldman
OpenAI registra pico de 1,6 milhão de usuários do Codex, posicionando a ferramenta de codificação como porta de entrada para agentes de IA para negócios — por Jeremy Kahn
Startup coreana wrtn está no caminho de ultrapassar US$ 100 milhões em receita recorrente anual, impulsionada por um boom alimentado por uma epidemia de solidão em IA de entretenimento — por Nicolas Gordon
NOTÍCIAS SOBRE IA
Trump tem um problema com centros de dados de IA antes das eleições de meio de mandato. CNBC e outros veículos relataram que o presidente Trump enfrenta um dilema político crescente enquanto os EUA correm para construir centros de dados de IA que consomem muita energia antes das eleições de 2026. A infraestrutura necessária para impulsionar o boom de IA está gerando preocupações com o aumento dos preços de eletricidade e a sobrecarga na rede elétrica, provocando reações negativas de eleitores e comunidades locais. Em resposta, grandes empresas de tecnologia — incluindo OpenAI, Microsoft, Google, Amazon, Meta e Oracle — prometeram cobrir os custos de energia e infraestrutura relacionados aos seus centros de dados de IA para que os consumidores não vejam contas de utilidade mais altas. O acordo voluntário, promovido pela Casa Branca como uma forma de aliviar as preocupações dos eleitores, reflete uma tensão mais ampla: os formuladores de políticas desejam as vantagens econômicas e geopolíticas da rápida expansão da IA, mas as enormes demandas de energia da tecnologia estão criando pressões políticas e ambientais cada vez mais difíceis de ignorar.
Não confie na IA para preencher seus impostos. Como era de se esperar, um teste do The New York Times revelou que a IA não consegue competir com o código fiscal dos EUA, destacando uma limitação importante dos chatbots de IA atuais: eles ainda têm dificuldades com tarefas que exigem raciocínio preciso e em múltiplas etapas. Para avaliar a capacidade da tecnologia de preencher uma declaração de imposto de renda federal, o jornal testou quatro chatbots de IA — Gemini do Google, ChatGPT da OpenAI, Claude da Anthropic e Grok da xAI — para ver como se saíam com oito situações fiscais fictícias. Eles tiveram dificuldades, calculando mal o reembolso ou o valor devido à Receita Federal, com uma média de mais de US$ 2.000 de erro. Mesmo quando fornecidos com todos os materiais necessários, incluindo formulários para preencher, os chatbots cometeram erros em alguns cálculos. O problema reflete uma limitação fundamental dos grandes modelos de linguagem: eles são projetados para prever palavras prováveis, não para acompanhar informações complexas e interligadas com precisão, tornando-os fortes na escrita e resumo, mas mais fracos em tarefas procedimentais como a declaração de impostos. Especialistas dizem que os sistemas podem melhorar com ferramentas adicionais de raciocínio e camadas de verificação, mas, por ora, funcionam melhor como assistentes do que como substitutos — mais um lembrete de que, mesmo enquanto a IA transforma setores como codificação e medicina, algumas tarefas aparentemente simples continuam surpreendentemente difíceis.
A ferramenta de IA Claude, da Anthropic, é central na campanha dos EUA no Irã, em meio a uma amarga disputa. Um novo relatório do The Washington Post destaca como a IA rapidamente passou de experimentação para o campo de batalha. Segundo o jornal, o exército dos EUA usou um sistema de mira habilitado por IA chamado Maven Smart System — desenvolvido pela Palantir e incorporando o modelo Claude da Anthropic — para ajudar a identificar e priorizar alvos durante operações recentes nos Irã, acelerando o que antes levava semanas de planejamento militar para decisões quase em tempo real. No entanto, a implantação ocorre em meio a uma disputa acirrada entre a Anthropic e o Pentágono sobre os limites do uso de sua tecnologia em guerra, incluindo preocupações com armas autônomas e vigilância em massa. O episódio reforça tanto a crescente importância estratégica dos sistemas de IA de fronteira quanto a tensão entre a demanda governamental por implantação rápida e os esforços das empresas em estabelecer limites de segurança.