Anthropic, OpenAI reduzem a linguagem de segurança à medida que a corrida pela IA acelera

Anthropic, OpenAI Retira Linguagem de Segurança à Medida que A Corrida pela IA Acelera

Jason Nelson

Qui, 26 de Fevereiro de 2026 às 10:41 GMT+9 4 min de leitura

Neste artigo:

GOOG

+0.68%

A Anthropic retirou uma promessa central de segurança da sua Política de Escalonamento Responsável, de acordo com um relatório da TIME. As mudanças afrouxam um compromisso que antes impedia o desenvolvedor da IA Claude de treinar sistemas de IA avançados sem garantias de salvaguardas em vigor.

A medida redefine a forma como a empresa se posiciona na corrida da IA contra rivais como OpenAI, Google e xAI. A Anthropic há muito se apresenta como um dos laboratórios mais focados na segurança da indústria, mas sob a política revista, a Anthropic já não promete interromper o treinamento se as mitigação de riscos não estiverem totalmente implementadas.

“Achámos que não ajudaria ninguém se parássemos o treinamento de modelos de IA,” disse Jared Kaplan, diretor científico da Anthropic, à TIME. “Não sentimos realmente, com o avanço rápido da IA, que fazia sentido para nós fazermos compromissos unilaterais… se os concorrentes estão avançando rapidamente.”

A mudança ocorre enquanto a Anthropic se vê envolvida em uma disputa pública com o Secretário de Defesa dos EUA, Pete Hegseth, por recusar conceder ao Pentágono acesso total ao Claude, tornando-se o único grande laboratório de IA entre Google, xAI, Meta e OpenAI a adotar essa postura.

Edward Geist, pesquisador sênior de políticas na RAND Corporation, disse que a anterior formulação de “segurança da IA” surgiu de uma comunidade intelectual específica que precedeu os atuais modelos de linguagem de grande escala.

“Há alguns anos, havia o campo da segurança da IA,” disse Geist à Decrypt. “A segurança da IA estava associada a um conjunto particular de visões que vieram da comunidade de pessoas que se preocupavam com IA poderosa antes de termos estes LLMs.”

Geist afirmou que os primeiros defensores da segurança da IA estavam trabalhando a partir de uma visão muito diferente do que a inteligência artificial avançada seria.

O Primeiro-Ministro do Reino Unido Procura Novos Poderes para Regular Chatbots de IA à Medida que as Preocupações com a Segurança Infantil Aumentam

“Eles acabaram por conceber o problema de uma forma que, em alguns aspectos, estava a imaginar algo qualitativamente diferente destes atuais LLMs, para melhor ou para pior,” disse Geist.

Geist disse que a mudança de linguagem também envia um sinal para investidores e formuladores de políticas.

“Parte disso é sinalizar para várias partes interessadas que muitas dessas empresas querem dar a impressão de que não estão a conter-se na competição económica por causa de preocupações sobre ‘segurança da IA’,” disse ele, acrescentando que a terminologia em si está a mudar para se adaptar aos tempos.

A Anthropic não está sozinha na revisão da sua linguagem de segurança.

O que define a segurança da IA?

Um relatório recente da organização de notícias sem fins lucrativos, The Conversation, observou como a OpenAI também alterou a sua declaração de missão na sua declaração do IRS de 2024, removendo a palavra “com segurança.”

A História Continua  

A declaração anterior da empresa prometia construir IA de propósito geral que “beneficiaria a humanidade de forma segura, sem estar limitada pela necessidade de gerar retorno financeiro.” A versão atualizada agora afirma que seu objetivo é “garantir que a inteligência geral artificial beneficie toda a humanidade.”

“O problema com o termo segurança da IA é que ninguém parece saber exatamente o que isso significa,” disse Geist. “Por outro lado, o termo segurança da IA também foi contestado.”

A nova política da Anthropic enfatiza medidas de transparência, como a publicação de “mapas de segurança de fronteira” e “relatórios de risco” regulares, e afirma que atrasará o desenvolvimento se acreditar que há um risco significativo de catástrofe.

As mudanças de política da Anthropic e da OpenAI ocorrem à medida que as empresas buscam fortalecer a sua posição comercial.

Assistente de IA de Código Aberto em Rápido Crescimento, Clawdbot, Está Testando os Limites da Automação — e da Segurança

No início deste mês, a Anthropic disse que arrecadou 30 bilhões de dólares a uma avaliação de cerca de 380 bilhões de dólares. Ao mesmo tempo, a OpenAI está a finalizar uma ronda de financiamento apoiada pela Amazon, Microsoft e Nvidia que pode atingir 100 bilhões de dólares.

A Anthropic e a OpenAI, juntamente com Google e xAI, receberam contratos governamentais lucrativos com o Departamento de Defesa dos EUA. Para a Anthropic, no entanto, o contrato parece estar em dúvida, uma vez que o Pentágono pondera cortar laços com a empresa de IA devido a reclamações de acesso.

À medida que o capital flui para o setor e a competição geopolítica se intensifica, Hamza Chaudhry, Líder de IA e Segurança Nacional do Future of Life Institute, disse que a mudança de política reflete dinâmicas políticas em mudança, em vez de uma tentativa de conquistar negócios do Pentágono.

“Se esse fosse o caso, eles teriam apenas recuado do que o Pentágono disse há uma semana,” disse Chaudhry à Decrypt. “Dario [Amodei] não teria aparecido para se encontrar.”

Em vez disso, Chaudhry disse que a reescrita reflete um ponto de viragem na forma como as empresas de IA falam sobre risco à medida que a pressão política e as apostas competitivas aumentam.

“A Anthropic agora está a dizer: ‘Veja, não podemos continuar a dizer segurança, não podemos pausar incondicionalmente, e vamos lutar por uma regulação muito mais leve,’” disse ele.

Termos e Política de Privacidade

Painel de Privacidade

Mais Informações

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar