Startups de IA designadas como "risco da cadeia de abastecimento", o Pentágono está a dividir as empresas tecnológicas americanas?

robot
Geração de resumo em curso

Fonte: Global Times

【Relatório do Global Times, repórter Ni Hao】Após o Pentágono dos EUA classificar a Anthropic, uma startup de inteligência artificial (IA), como “risco na cadeia de abastecimento”, as grandes empresas de tecnologia do Vale do Silício começaram a divergir de acordo com seus interesses. A Microsoft optou por apoiar publicamente a Anthropic na ação contra o Pentágono, enquanto o Google, aproveitando o conflito entre Anthropic e o Pentágono, ampliou sua infiltração na segunda.

O Financial Times de 11 de abril informou que, na terça-feira, a Microsoft manifestou apoio público à Anthropic, tornando-se a primeira gigante de tecnologia a tomar partido na disputa entre a Anthropic e o Departamento de Defesa dos EUA. Nos documentos apresentados ao tribunal, a Microsoft alertou que as ações “extremas” e “sem precedentes” contra a startup de IA poderiam ter um impacto “amplo e negativo” na indústria tecnológica americana. A Microsoft solicitou uma liminar temporária para impedir que a decisão do Departamento de Defesa de classificar a Anthropic como “risco na cadeia de abastecimento” entrasse em vigor durante o andamento do processo.

“Este conflito já dividiu o Vale do Silício.” O Financial Times destacou que, desde a posse do atual governo dos EUA, as gigantes tecnológicas do Vale têm evitado confrontos públicos com ele de forma cautelosa.

De acordo com várias fontes, incluindo a revista Forbes, a situação da Anthropic é vista por seus concorrentes como uma oportunidade de infiltração no mercado governamental. Na segunda-feira, um dia após a ação judicial contra o governo, o Google anunciou que seu novo agente de IA será implantado em cerca de 3 milhões de funcionários militares e civis do Pentágono, para tarefas como atas de reuniões e planejamento de missões, em ambientes não confidenciais. Além disso, há relatos de negociações em andamento para expandir sua utilização para ambientes confidenciais e ultraconfidenciais.

O Google não é a primeira empresa a ampliar sua cooperação com o Departamento de Defesa após o conflito. Anteriormente, a OpenAI, após o “banimento” pelo Departamento de Defesa da Anthropic, anunciou rapidamente um acordo de cooperação com o Pentágono, alegando que o acordo “possui mais barreiras de segurança do que qualquer outro acordo de implantação de IA anterior”, mas essa iniciativa gerou forte rejeição no mercado. Desde a divulgação do acordo, a taxa de desinstalação do ChatGPT, da OpenAI, aumentou significativamente.

Vale notar que alguns funcionários da OpenAI e do Google já se juntaram ao grupo de oposição ao Pentágono, afirmando que “o governo dos EUA tenta dividir as empresas de IA através do medo”.

A Anthropic tem sido a única fornecedora de IA operando em ambientes de nuvem confidenciais do Pentágono, até que, em 27 de fevereiro, foi classificada como “risco na cadeia de abastecimento”. Essa medida, extremamente rara, geralmente é aplicada apenas a empresas estrangeiras. Na segunda-feira, a Anthropic entrou com uma ação judicial contra o Pentágono, alegando que a classificação era “sem precedentes e ilegal”, causando “danos irreparáveis à empresa”.

Fundada em 2021 por ex-executivos da OpenAI, a Anthropic rapidamente se tornou uma das startups de tecnologia de crescimento mais rápido nos EUA, avaliada em 380 bilhões de dólares. O conflito entre as partes começou em fevereiro deste ano. Segundo o New York Times, no contrato com o Pentágono, a Anthropic estabeleceu duas linhas vermelhas: oposição ao uso de IA para vigilância em massa contra os americanos e sua implantação em armas autônomas sem participação humana. A Associated Press relatou que, em fevereiro, o Secretário de Defesa dos EUA, Lloyd Austin, enviou um ultimato à Anthropic, exigindo que cancelasse todas as restrições, permitindo que o exército usasse IA para “todas as finalidades legais”, o que foi recusado pela empresa. No mesmo dia, o Pentágono classificou a Anthropic como “risco na cadeia de abastecimento”, e Donald Trump anunciou que ordenou a todas as agências federais que parassem imediatamente de usar a tecnologia da Anthropic. Em 9 de março, a Anthropic entrou oficialmente com uma ação contra o governo dos EUA.

Segundo a Reuters de 12 de abril, o Pentágono está afrouxando a proibição contra a Anthropic. Um memorando interno divulgado recentemente indica que, se as ferramentas de IA forem consideradas essenciais para a segurança nacional dos EUA, o Pentágono permitirá que algumas unidades continuem usando os produtos da Anthropic após o período de seis meses de eliminação previsto. Analistas interpretam isso como um reflexo da dificuldade do Pentágono em excluir a Anthropic de sua cadeia de suprimentos. A Reuters acredita que, embora o Pentágono tenha aberto uma exceção discreta, o memorando ainda prioriza a remoção dos produtos da Anthropic de sistemas que suportam tarefas críticas, como armas nucleares e defesa contra mísseis balísticos.

A Dra. Brianna Rosen, diretora do programa de Políticas de Redes e Tecnologia do Blavatnik School of Government na Universidade de Oxford, afirmou que esse conflito é amplamente visto como um confronto entre ética e segurança nacional na aplicação de IA, expondo a falta de governança de longo prazo no uso militar de IA, e refletindo que os mecanismos de contratos comerciais já não são suficientes para uma governança que possa acompanhar a realidade do uso de IA na guerra.

A professora Nadra Sanders, de Gestão da Cadeia de Suprimentos na Northeastern University, afirmou que a Anthropic mantém uma boa relação de cooperação com o Pentágono e é a primeira empresa de IA a fornecer modelos de linguagem de grande escala para uso em redes confidenciais do governo. Classificá-la como “risco na cadeia de abastecimento” representa uma punição extremamente severa e sem precedentes para as empresas de IA americanas. Ela acrescentou que rotular empresas de IA dessa forma — especialmente se for uma retaliação às suas posições em negociações — pode prejudicar a inovação. Empresas que implementam medidas de segurança ou éticas podem hesitar em desenvolver essas tecnologias por medo de serem excluídas do mercado governamental.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar