O chefe da Palantir no Reino Unido afirma que cabe às forças armadas decidir como a focalização por IA é utilizada na guerra

O chefe da Palantir UK diz que cabe aos exércitos decidir como é usado o alvo por IA na guerra

há 8 minutos

PartilharGuardar

Adicionar aos preferidos no Google

Marc Cieslak,correspondente de IAe

Matt Murphy,BBC Verify

O Louis Mosley, da Palantir, diz que cabe às forças armadas a forma como os sistemas de IA são utilizados

A gigante tecnológica Palantir recuou face a preocupações de que o uso militar das suas plataformas de IA possa conduzir a riscos não previstos, numa entrevista exclusiva à BBC, garantindo que a forma como a tecnologia é utilizada é da responsabilidade dos seus clientes militares.

Isto acontece no momento em que especialistas manifestaram preocupação com o uso da plataforma de defesa da Palantir, alimentada por IA - Maven Smart System - durante operações em tempo de guerra e com a sua utilização, alegadamente, em ataques dos EUA ao Irão.

Analistas alertaram que o uso da plataforma pelo exército, que ajuda o pessoal a planear ataques, deixa pouco tempo para uma “verificação significativa” do seu resultado e pode levar a que sejam atingidos alvos incorrectos.

Mas o chefe da Palantir para o Reino Unido e a Europa, Louis Mosley, disse à BBC, numa entrevista abrangente, que embora plataformas de IA como a Maven tenham sido “instrumentais” para a gestão, pelos EUA, da guerra do Irão, a responsabilidade pela forma como o seu output é utilizado tem de permanecer sempre “com a organização militar”.

“Há sempre um humano no ciclo, por isso há sempre um humano que toma a decisão final. É assim que funciona actualmente.”

O Maven Smart System foi lançado pelo Pentágono em 2017 e foi concebido para acelerar as decisões de targeting militar, reunindo grandes quantidades de dados, incluindo uma variedade de informações de inteligência, imagens de satélite e de drones.

O sistema analisa estes dados e pode então fornecer recomendações para o targeting. Pode também sugerir o nível de força a utilizar com base na disponibilidade de pessoal e de equipamento militar, como aeronaves.

Mas a fiscalização tem aumentado relativamente ao uso de ferramentas deste tipo em conflitos. Em fevereiro, o Pentágono anunciou que iria avançar com o faseamento da plataforma de IA Claude, da Anthropic - que ajuda a alimentar a Maven - depois de a empresa ter recusado permitir o uso da sua IA em armas autónomas e em vigilância. A Palantir diz que alternativas podem substituí-la.

Desde o início da guerra com o Irão, em fevereiro, os EUA terão usado a Maven para planear ataques em todo o país.

Imagens de demonstração do Maven Smart System da Palantir

Impulsionado pela BBC pelo risco de a Maven poder sugerir alvos incorrectos - o que poderia incluir civis - Mosley afirmou que a plataforma serve apenas para orientar e acelerar o processo de tomada de decisão do pessoal militar e que não deve ser vista como um sistema de targeting automatizado.

“Pode pensar nisso como uma ferramenta de apoio”, disse Mosley. “Está a permitir que sintetizem enormes quantidades de informação que, antes, teriam de fazer manualmente, uma por uma.”

No entanto, Mosley deferiu às forças armadas individuais quando foi confrontado pela BBC, face ao risco de comandantes pressionados pelo tempo estarem a ordenar aos seus oficiais que tratem o output da Maven como se estivesse carimbado.

“Essa é realmente uma questão para os nossos clientes militares. São eles que decidem o quadro de políticas que determina quem pode tomar que tipo de decisão”, disse. “Não é o nosso papel.”

Desde 28 de fevereiro, os EUA desferiram mais de 11.000 ataques contra o Irão, muitos dos quais, segundo relatos, identificados pela Maven.

O almirante Brad Cooper, chefe do Exército dos EUA no Médio Oriente, elogiou os sistemas de IA por ajudarem os oficiais a “filtrar, em segundos, quantidades enormes de dados, para que os nossos líderes consigam ultrapassar o ruído e tomar decisões mais inteligentes mais rapidamente do que o inimigo consegue reagir”.

A empresa de IA Anthropic procura especialista em armas para impedir utilizadores de ‘usar indevidamente’

A OpenAI altera acordo com o exército dos EUA após reação

Trump manda o governo parar de usar a Anthropic na batalha sobre o uso de IA

Mas alguns receiam que a participação da IA no planeamento de missões crie riscos significativos.

“Esta priorização da velocidade e da escala e do uso da força deixa muito pouco tempo para uma verificação significativa dos alvos, para garantir que não incluem alvos civis por acidente”, disse a professora Elke Schwarz, da Queen Mary University of London.

“Se houver um risco de matar e se cooptar muito do seu pensamento crítico para um software que trate dessas questões por si, então passa a depender do software”, acrescentou. “É uma corrida para o fundo.”

Nas últimas semanas, dirigentes do Pentágono têm sido confrontados com questões sobre se ferramentas de IA como a Maven foram usadas para identificar alvos no ataque mortal a uma escola na localidade iraniana de Minab. Autoridades iranianas disseram que o ataque matou 168 pessoas, incluindo cerca de 110 crianças, no primeiro dia da guerra.

No Congresso, vários democratas séniores pediram um escrutínio reforçado de plataformas de IA como a Maven. A deputada Sara Jacobs - membro da Comissão dos Assuntos Militares da Câmara - pediu regras e regulamentos claramente aplicados sobre como e quando é que os sistemas de IA são usados.

“As ferramentas de IA não são 100% fiáveis — podem falhar de formas subtis e, ainda assim, os operadores continuam a confiar demais nelas”, disse ela ao NBC News no mês passado.

“Temos a responsabilidade de impor barreiras de segurança rigorosas ao uso de IA pelas forças armadas e garantir que há sempre um humano no ciclo em cada decisão de usar força letal, porque o custo de errar poderia ser devastador para os civis e para os membros do serviço que executam estas missões.”

Mas Mosley recuou face a sugestões de que a rapidez da plataforma da sua empresa está a acelerar a tomada de decisões no Pentágono e a potencialmente criar situações perigosas. Em vez disso, argumentou que a rapidez com que agora os comandantes estão a agir é uma “consequência do aumento da eficiência” que a Maven permitiu.

Invocando “segurança operacional”, o Pentágono recusou-se a comentar quando foi contactado pela BBC sobre como é que sistemas de IA como a Maven serão usados no futuro, ou sobre quem seria responsabilizado caso algo corra mal.

Mas as autoridades nos EUA parecem estar a avançar com planos para integrar ainda mais a Maven nos seus sistemas.

Na semana passada, a agência de notícias Reuters informou que o Pentágono designou a Maven como “um programa oficial de referência” - estabelecendo-a como uma tecnologia a integrar a longo prazo em todo o sistema militar dos EUA.

Numa carta obtida pela Reuters, o subsecretário de Defesa Steve Feinberg disse que a plataforma forneceria aos comandantes “as ferramentas mais recentes necessárias para detectar, dissuadir e dominar os nossos adversários em todos os domínios”.

Reporting adicional de Jemimah Herd

inteligência artificial

guerra do Irão

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar