Anthropic responde oficialmente: sobre a classificação de "risco na cadeia de abastecimento", irá processar o Departamento de Defesa dos Estados Unidos

robot
Geração de resumo em curso

A APP de notícias financeiras Zhitong informou que o Departamento de Defesa dos Estados Unidos notificou oficialmente a Anthropic PBC, reconhecendo que a empresa e seus produtos representam um risco para a cadeia de suprimentos dos EUA. Segundo um alto funcionário de defesa, essa medida intensificou ainda mais a disputa entre as duas partes no campo da segurança da inteligência artificial.

O funcionário revelou na quinta-feira: “O Departamento de Guerra (Department of War, abreviado DOW) enviou oficialmente uma notificação à liderança da Anthropic, esclarecendo que a empresa e seus produtos são considerados riscos na cadeia de suprimentos, e essa determinação entra em vigor imediatamente.” É importante notar que o secretário de defesa, Pete Hegseth, tem demonstrado preferência recente pelo uso do termo tradicional “Departamento de Guerra” para se referir ao Departamento de Defesa, e nesta comunicação oficial pela primeira vez foi utilizado esse nome.

Diante da ameaça de inclusão da Anthropic na lista negra emitida pelo Departamento de Defesa devido a controvérsias sobre a segurança na inteligência artificial, espera-se que esse impasse evolua para um confronto legal.

“Estamos convencidos de que essa ação carece de fundamento legal, portanto, não temos alternativa senão contestar judicialmente,” afirmou claramente o CEO da Anthropic, Dario Amodei, em seu blog oficial na quinta-feira.

Embora o funcionário de defesa tenha enfatizado que a decisão “entra em vigor imediatamente”, fontes familiarizadas informaram que as forças armadas dos EUA continuam a usar ativamente a ferramenta de IA Claude, desenvolvida pela Anthropic, em operações militares contra o Irã. Na sexta-feira passada, ao emitir um aviso à empresa, o secretário de defesa, Pete Hegseth, estabeleceu um período de transição de seis meses, durante o qual a Anthropic deveria transferir suas operações de IA para outros fornecedores.

Apesar de o funcionário de defesa afirmar que a decisão “entra em vigor imediatamente”, uma fonte próxima revelou que as forças armadas continuam a utilizar ativamente a ferramenta Claude em suas operações contra o Irã. Na mesma ocasião, Hegseth delineou um período de transição de seis meses para que a Anthropic transferisse suas atividades de IA para outros fornecedores.

Sobre esses desenvolvimentos, tanto a Anthropic quanto um porta-voz do Departamento de Defesa não fizeram comentários imediatos. Vale destacar que o funcionário de defesa não especificou quando ou de que modo a notificação de risco foi comunicada oficialmente à Anthropic.

Anteriormente, a Anthropic declarou que tomaria medidas legais contra qualquer determinação de risco na cadeia de suprimentos feita pelo Departamento de Defesa.

A determinação do risco na cadeia de suprimentos pelo Departamento de Defesa dos EUA pode prejudicar a colaboração entre a Anthropic e o setor militar — que há muito depende profundamente do software da empresa. Até recentemente, a Anthropic era a única fornecedora autorizada de sistemas de IA na plataforma de nuvem confidencial do Departamento de Defesa dos EUA, cujo sistema Claude Gov, devido à sua facilidade de uso, tornou-se uma plataforma operacional central para os militares.

“Isso constitui uma capacidade tecnológica de valor estratégico,” destacou Lauren Kahn, analista sênior do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown, em entrevista, acrescentando: “Se essa capacidade for retirada à força, provocará uma cadeia de danos que afetará o setor militar, as empresas e todo o ecossistema tecnológico.”

O CEO da Anthropic, Dario Amodei, negociou por várias semanas com Emile Michael, vice-secretário de defesa responsável por pesquisa e engenharia, na tentativa de firmar um contrato especial que regulasse o acesso do Departamento de Defesa dos EUA às tecnologias da Anthropic. No entanto, as negociações fracassaram na semana passada — a startup insistia em garantias claras de que suas tecnologias de IA não seriam usadas para vigilância em massa de cidadãos americanos ou para o desenvolvimento de armas autônomas.

Depois, na sexta-feira, Hegseth publicou uma mensagem na plataforma X (antigo Twitter) afirmando que a Anthropic já constitui um “risco na cadeia de suprimentos”. É importante notar que esse tipo de avaliação normalmente é direcionado a países ou entidades considerados adversários pelos EUA; sua aplicação a empresas de tecnologia é incomum.

Ainda não está claro sob qual legislação o Departamento de Defesa dos EUA classificou a Anthropic como uma ameaça à cadeia de suprimentos. Em uma declaração na semana passada, respondendo a uma postagem de Hegseth, a Anthropic afirmou que espera que essa ação de classificação de risco seja, no final, fundamentada na Seção 3252 da Lei de Gestão das Forças Armadas dos EUA.

“Desde o início, o princípio central sempre foi claro — o setor militar deve ter autonomia para usar a tecnologia para todos os fins legais,” enfatizou o funcionário de defesa na quinta-feira. “Não permitiremos que qualquer fornecedor limite o uso legítimo de capacidades essenciais, interferindo na cadeia de comando e colocando os operadores em risco.”

Essa classificação ocorre em um momento crítico, pois as forças armadas dos EUA dependem profundamente da ferramenta Claude em suas operações contra o Irã — usando uma série de ferramentas de IA para processar de forma eficiente os vastos volumes de dados durante as ações militares. Fontes próximas revelaram que o sistema inteligente Maven, desenvolvido pela Palantir Technologies Inc., é amplamente utilizado na região do Oriente Médio, e que a IA Claude da Anthropic é uma das principais grandes modelos de linguagem integrados ao sistema. Essas fontes destacaram que Claude tem apresentado desempenho excelente na operação real, tornando-se uma peça fundamental no apoio às ações contra o Irã e acelerando significativamente a atualização de IA do sistema Maven.

Atualmente, a avaliação de valor da Anthropic atingiu US$ 380 bilhões. Com base nos resultados atuais, a empresa deve alcançar uma receita anualizada próxima de US$ 20 bilhões — uma previsão que indica uma duplicação da taxa de receita anual em relação ao final do ano passado. No entanto, a disputa contínua com o Departamento de Defesa lança uma sombra sobre o futuro da gigante tecnológica.

Ainda não está claro qual será o impacto de longo prazo dessa classificação de risco na venda de produtos da Anthropic para clientes corporativos (que historicamente representam sua principal fonte de receita). É importante notar que, sob a nuvem de conflito, a empresa vem expandindo silenciosamente sua presença no mercado de usuários comuns — seu aplicativo principal recentemente liderou as downloads na App Store da Apple, refletindo o amplo reconhecimento e apoio do mercado às tecnologias da Anthropic.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar