Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Anthropic, OpenAI reduzem a linguagem de segurança à medida que a corrida pela IA acelera
Anthropic, OpenAI Retira Linguagem de Segurança à Medida que A Corrida pela IA Acelera
Jason Nelson
Qui, 26 de Fevereiro de 2026 às 10:41 GMT+9 4 min de leitura
Neste artigo:
GOOG
+0.68%
A Anthropic retirou uma promessa central de segurança da sua Política de Escalonamento Responsável, de acordo com um relatório da TIME. As mudanças afrouxam um compromisso que antes impedia o desenvolvedor da IA Claude de treinar sistemas de IA avançados sem garantias de salvaguardas em vigor.
A medida redefine a forma como a empresa se posiciona na corrida da IA contra rivais como OpenAI, Google e xAI. A Anthropic há muito se apresenta como um dos laboratórios mais focados na segurança da indústria, mas sob a política revista, a Anthropic já não promete interromper o treinamento se as mitigação de riscos não estiverem totalmente implementadas.
“Achámos que não ajudaria ninguém se parássemos o treinamento de modelos de IA,” disse Jared Kaplan, diretor científico da Anthropic, à TIME. “Não sentimos realmente, com o avanço rápido da IA, que fazia sentido para nós fazermos compromissos unilaterais… se os concorrentes estão avançando rapidamente.”
A mudança ocorre enquanto a Anthropic se vê envolvida em uma disputa pública com o Secretário de Defesa dos EUA, Pete Hegseth, por recusar conceder ao Pentágono acesso total ao Claude, tornando-se o único grande laboratório de IA entre Google, xAI, Meta e OpenAI a adotar essa postura.
Edward Geist, pesquisador sênior de políticas na RAND Corporation, disse que a anterior formulação de “segurança da IA” surgiu de uma comunidade intelectual específica que precedeu os atuais modelos de linguagem de grande escala.
“Há alguns anos, havia o campo da segurança da IA,” disse Geist à Decrypt. “A segurança da IA estava associada a um conjunto particular de visões que vieram da comunidade de pessoas que se preocupavam com IA poderosa antes de termos estes LLMs.”
Geist afirmou que os primeiros defensores da segurança da IA estavam trabalhando a partir de uma visão muito diferente do que a inteligência artificial avançada seria.
O Primeiro-Ministro do Reino Unido Procura Novos Poderes para Regular Chatbots de IA à Medida que as Preocupações com a Segurança Infantil Aumentam
“Eles acabaram por conceber o problema de uma forma que, em alguns aspectos, estava a imaginar algo qualitativamente diferente destes atuais LLMs, para melhor ou para pior,” disse Geist.
Geist disse que a mudança de linguagem também envia um sinal para investidores e formuladores de políticas.
“Parte disso é sinalizar para várias partes interessadas que muitas dessas empresas querem dar a impressão de que não estão a conter-se na competição económica por causa de preocupações sobre ‘segurança da IA’,” disse ele, acrescentando que a terminologia em si está a mudar para se adaptar aos tempos.
A Anthropic não está sozinha na revisão da sua linguagem de segurança.
O que define a segurança da IA?
Um relatório recente da organização de notícias sem fins lucrativos, The Conversation, observou como a OpenAI também alterou a sua declaração de missão na sua declaração do IRS de 2024, removendo a palavra “com segurança.”
A declaração anterior da empresa prometia construir IA de propósito geral que “beneficiaria a humanidade de forma segura, sem estar limitada pela necessidade de gerar retorno financeiro.” A versão atualizada agora afirma que seu objetivo é “garantir que a inteligência geral artificial beneficie toda a humanidade.”
“O problema com o termo segurança da IA é que ninguém parece saber exatamente o que isso significa,” disse Geist. “Por outro lado, o termo segurança da IA também foi contestado.”
A nova política da Anthropic enfatiza medidas de transparência, como a publicação de “mapas de segurança de fronteira” e “relatórios de risco” regulares, e afirma que atrasará o desenvolvimento se acreditar que há um risco significativo de catástrofe.
As mudanças de política da Anthropic e da OpenAI ocorrem à medida que as empresas buscam fortalecer a sua posição comercial.
Assistente de IA de Código Aberto em Rápido Crescimento, Clawdbot, Está Testando os Limites da Automação — e da Segurança
No início deste mês, a Anthropic disse que arrecadou 30 bilhões de dólares a uma avaliação de cerca de 380 bilhões de dólares. Ao mesmo tempo, a OpenAI está a finalizar uma ronda de financiamento apoiada pela Amazon, Microsoft e Nvidia que pode atingir 100 bilhões de dólares.
A Anthropic e a OpenAI, juntamente com Google e xAI, receberam contratos governamentais lucrativos com o Departamento de Defesa dos EUA. Para a Anthropic, no entanto, o contrato parece estar em dúvida, uma vez que o Pentágono pondera cortar laços com a empresa de IA devido a reclamações de acesso.
À medida que o capital flui para o setor e a competição geopolítica se intensifica, Hamza Chaudhry, Líder de IA e Segurança Nacional do Future of Life Institute, disse que a mudança de política reflete dinâmicas políticas em mudança, em vez de uma tentativa de conquistar negócios do Pentágono.
“Se esse fosse o caso, eles teriam apenas recuado do que o Pentágono disse há uma semana,” disse Chaudhry à Decrypt. “Dario [Amodei] não teria aparecido para se encontrar.”
Em vez disso, Chaudhry disse que a reescrita reflete um ponto de viragem na forma como as empresas de IA falam sobre risco à medida que a pressão política e as apostas competitivas aumentam.
“A Anthropic agora está a dizer: ‘Veja, não podemos continuar a dizer segurança, não podemos pausar incondicionalmente, e vamos lutar por uma regulação muito mais leve,’” disse ele.
Termos e Política de Privacidade
Painel de Privacidade
Mais Informações