O chefe da Palantir no Reino Unido afirma que cabe às forças armadas decidir como a focalização por IA é utilizada na guerra

O chefe da Palantir no Reino Unido diz que cabe às forças armadas decidir como é usada a segmentação por IA em contexto de guerra

Há 2 dias

PartilharGuardar

Adicionar como preferido no Google

Marc Cieslak, correspondente de IA e

Matt Murphy, BBC Verify

Louis Mosley, da Palantir, diz que as forças armadas são responsáveis pela forma como os sistemas de IA são utilizados

A gigante tecnológica Palantir recuou face a preocupações de que o uso militar das suas plataformas de IA possa conduzir a riscos imprevistos, numa entrevista exclusiva à BBC, afirmando que a forma como a tecnologia é utilizada é da responsabilidade dos seus clientes militares.

Acontece num momento em que especialistas manifestaram preocupações com o uso da plataforma de defesa alimentada por IA da Palantir - Maven Smart System - durante operações de guerra e com o seu alegado uso em ataques dos EUA ao Irão.

Analistas alertaram que o uso da plataforma pelo exército, que ajuda o pessoal a planear ataques, deixa pouco tempo para a “verificação significativa” do seu resultado e pode levar a que alvos incorrectos sejam atingidos.

Mas o chefe da Palantir no Reino Unido e na Europa, Louis Mosley, disse à BBC, numa entrevista abrangente, que embora plataformas de IA como a Maven tenham sido “instrumentais” na gestão da guerra do Irão pelos EUA, a responsabilidade pela forma como o seu resultado é utilizado tem de permanecer sempre “com a organização militar”.

“Há sempre um humano no circuito, por isso há sempre um humano que toma a decisão final. É esse o modelo actual.”

O Maven Smart System foi lançado pelo Pentágono em 2017 e foi concebido para acelerar decisões de segmentação militar, reunindo grandes volumes de dados, incluindo uma série de informação, imagens de satélite e de drones.

O sistema analisa esses dados e, em seguida, pode fornecer recomendações para a segmentação. Também pode sugerir o nível de força a utilizar com base na disponibilidade de pessoal e de equipamento militar, como aeronaves.

Mas o escrutínio tem aumentado em relação ao uso de ferramentas deste tipo na guerra. Em Fevereiro, o Pentágono anunciou que estaria a fasear a retirada do sistema de IA Claude, da Anthropic - que ajuda a alimentar o Maven - depois de a empresa se ter recusado a permitir o uso da sua IA em armas autónomas e em vigilância. A Palantir afirma que alternativas podem substituí-lo.

Desde o início da guerra com o Irão, em Fevereiro, os EUA terão usado a Maven para planear ataques em todo o país.

Imagens de demonstração do Palantir Maven Smart System

Impulsionado pela BBC sobre o risco de a Maven poder sugerir alvos incorrectos - que podem incluir civis - Mosley insistiu que a plataforma serve apenas como guia para acelerar o processo de decisão para o pessoal militar e que não deve ser vista como um sistema automatizado de segmentação.

“Poderá pensá-la como uma ferramenta de apoio”, disse Mosley. “Está a permitir-lhes sintetizar quantidades vastas de informação que anteriormente teriam de fazer manualmente, uma a uma.”

No entanto, perante um desafio da BBC sobre o risco de comandantes sob pressão de tempo ordenarem aos seus oficiais que tomem o resultado da Maven como algo carimbado, Mosley remeteu para as forças armadas individuais.

“É realmente uma questão para os nossos clientes militares. São eles que decidem o enquadramento de políticas que determina quem é que pode tomar que decisão”, disse. “Não é o nosso papel.”

Desde 28 de Fevereiro, os EUA lançaram mais de 11.000 ataques contra o Irão, muitos dos quais terão sido identificados pela Maven.

O almirante Brad Cooper, chefe das forças militares dos EUA no Médio Oriente, elogiou os sistemas de IA por ajudarem os oficiais a “filtrar em segundos vastas quantidades de dados, para que os nossos líderes consigam ultrapassar o ruído e tomar decisões mais inteligentes mais rapidamente do que o inimigo consegue reagir”.

A empresa de IA Anthropic procura um especialista em armas para impedir os utilizadores de ‘abusarem’

A OpenAI altera acordo com o exército dos EUA após reação adversa

Trump manda o governo parar de usar a Anthropic na batalha sobre o uso de IA

Mas alguns receiam que a participação da IA no planeamento de missões crie riscos significativos.

“Esta priorização da velocidade e da escala e o uso da força, por sua vez, deixa muito pouco tempo para uma verificação significativa dos alvos, para garantir que não incluem acidentalmente alvos civis”, disse a Prof. Elke Schwarz, da Queen Mary University of London.

“Se houver um risco de matar e se cooptar muito do vosso pensamento crítico para um software que cuide destas coisas por vocês, então simplesmente se tornam dependentes do software”, acrescentou. “É uma corrida para o fundo.”

Nas últimas semanas, responsáveis do Pentágono têm sido confrontados com questões sobre se ferramentas de IA como a Maven foram usadas para identificar alvos no ataque mortal a uma escola na localidade iraniana de Minab. Responsáveis iranianos disseram que o ataque matou 168 pessoas, incluindo cerca de 110 crianças, no primeiro dia da guerra.

No Congresso, vários democratas de alto nível pediram um escrutínio reforçado de plataformas de IA como a Maven. A deputada Sara Jacobs - membro da Comissão de Serviços Armados da Câmara - pediu regras e regulamentos claramente aplicados sobre como e quando os sistemas de IA são usados.

“As ferramentas de IA não são 100% fiáveis — podem falhar de formas subtis e, ainda assim, os operadores continuam a confiar demasiado nelas”, disse ela ao NBC News no mês passado.

“Temos a responsabilidade de impor barreiras de segurança rigorosas no uso de IA pelas forças militares e garantir que há um humano no circuito em cada decisão de usar força letal, porque o custo de acertar mal pode ser devastador para os civis e para os militares que executam estas missões.”

Mas Mosley afastou sugestões de que a rapidez da plataforma da sua empresa está a precipitar o processo de tomada de decisão no Pentágono e potencialmente a criar situações perigosas. Em vez disso, defendeu que a rapidez com que os comandantes estão agora a agir é uma “consequência do aumento da eficiência” que a Maven possibilitou.

Invocando “segurança operacional”, o Pentágono recusou-se a comentar quando abordado pela BBC sobre como sistemas de IA como a Maven serão usados no futuro, ou sobre quem seria responsabilizado caso algo corra mal.

Mas parece que responsáveis nos EUA estão a avançar com planos para integrar ainda mais a Maven nos seus sistemas.

Na semana passada, a agência noticiosa Reuters informou que o Pentágono tinha designado a Maven como um “programa oficial de referência” - estabelecendo-a como uma tecnologia a integrar a longo prazo em todo o exército dos EUA.

Numa carta obtida pela Reuters, o secretário-adjunto da Defesa Steve Feinberg disse que a plataforma fornecerá aos comandantes “as ferramentas mais recentes necessárias para detectar, dissuadir e dominar os nossos adversários em todos os domínios”.

Reporte adicional de Jemimah Herd

Inteligência artificial

Guerra do Irão

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar