O chefe da Palantir no Reino Unido afirma que cabe às forças armadas decidir como a focalização por IA é utilizada na guerra

O chefe da Palantir UK diz que cabe às forças militares decidirem como o direcionamento por IA é utilizado na guerra

há 3 dias

PartilharGuardar

Adicionar como preferido no Google

Marc Cieslak,correspondente de IAe

Matt Murphy,BBC Verify

O Louis Mosley, da Palantir, diz que são as forças militares responsáveis por como os sistemas de IA são utilizados

O gigante tecnológico Palantir recuou face a preocupações de que o uso militar das suas plataformas de IA possa conduzir a riscos imprevistos, num entrevista exclusiva à BBC, afirmando que a forma como a tecnologia é utilizada é da responsabilidade dos seus clientes militares.

Isto surge num momento em que especialistas manifestaram preocupações com o uso da plataforma de defesa com IA da Palantir - o Maven Smart System - durante as operações de guerra e com a sua utilização comunicada em ataques dos EUA ao Irão.

Analistas alertaram que o uso da plataforma pelas forças militares, que ajuda o pessoal a planear ataques, deixa pouco tempo para uma “verificação significativa” do seu resultado e pode levar a que sejam atingidos alvos incorretos.

Mas o responsável da empresa para o Reino Unido e Europa, Louis Mosley, disse à BBC, numa entrevista abrangente, que embora plataformas de IA como o Maven tenham sido “instrumentais” para a gestão, pelos EUA, da guerra do Irão, a responsabilidade pela forma como o seu resultado é utilizado tem de permanecer sempre “com a organização militar”.

“Há sempre um ser humano no circuito, por isso existe sempre um ser humano que toma a decisão final. É assim que está montado.”

O Maven Smart System foi lançado pelo Pentágono em 2017 e foi concebido para acelerar as decisões de direcionamento militar, reunindo grandes volumes de dados, incluindo uma série de informação, imagens de satélite e de drones.

O sistema analisa esses dados e pode então fornecer recomendações para o direcionamento. Também pode sugerir o nível de força a utilizar com base na disponibilidade de pessoal e de equipamento militar, como aeronaves.

Mas a fiscalização aumentou em torno do uso de ferramentas deste tipo na guerra. Em fevereiro, o Pentágono anunciou que iria deixar gradualmente de utilizar o sistema de IA Claude, da Anthropic - que ajuda a alimentar o Maven - depois de a empresa ter recusado permitir o uso da sua IA em armas e vigilância autónomas. A Palantir diz que alternativas o podem substituir.

Desde o início da guerra com o Irão, em fevereiro, os EUA terão usado o Maven para planear ataques em todo o país.

Filmagem de demonstração do Palantir’s Maven Smart System

Impulsionado pela BBC pelo risco de que o Maven possa sugerir alvos incorretos - o que pode incluir civis - Mosley insistiu que a plataforma serve apenas como guia para acelerar o processo de tomada de decisão por parte do pessoal militar e que não deve ser vista como um sistema de direcionamento automatizado.

“Pode considerá-lo uma ferramenta de apoio”, disse Mosley. “Está a permitir-lhes sintetizar uma quantidade enorme de informação que, anteriormente, teriam de fazer manualmente, um a um.”

No entanto, Mosley remeteu para as forças militares individuais quando foi confrontado pela BBC, sobre o risco de comandantes pressionados pelo tempo estarem a ordenar aos seus oficiais que tomem o resultado do Maven como um carimbo de aprovação.

“É mesmo uma questão para os nossos clientes militares. São eles que decidem o quadro de políticas que determina quem pode tomar que decisão”, disse. “Não é o nosso papel.”

Desde 28 de fevereiro, os EUA lançaram mais de 11.000 ataques contra o Irão, muitos dos quais terão sido identificados pelo Maven.

O almirante Brad Cooper, chefe das forças militares dos EUA no Médio Oriente, elogiou os sistemas de IA por ajudarem os oficiais a “selecionar grandes quantidades de dados em segundos, para que os nossos líderes consigam ultrapassar o ruído e tomar decisões mais inteligentes mais rapidamente do que o inimigo consegue reagir”.

Empresa de IA Anthropic procura especialista em armas para impedir utilizadores de ‘utilização indevida’

A OpenAI altera acordo com o exército dos EUA após reação

Trump ordena ao governo que pare de usar a Anthropic na batalha sobre utilização de IA

Mas alguns receiam que o envolvimento da IA no planeamento de missões crie riscos significativos.

“Esta priorização da velocidade e da escala e do uso da força deixa muito pouco tempo para uma verificação significativa dos alvos, para garantir que não incluem alvos civis acidentalmente”, disse a Prof. Elke Schwarz, da Queen Mary University of London.

“Se houver um risco de matar e se cooptar muito do seu pensamento crítico para um software que trate dessas questões por si, então passa a depender do software”, acrescentou. “É uma corrida para o fundo.”

Nas últimas semanas, funcionários do Pentágono enfrentaram questões sobre se ferramentas de IA como o Maven foram usadas para identificar alvos no ataque mortal a uma escola na cidade iraniana de Minab. Autoridades iranianas disseram que o ataque matou 168 pessoas, incluindo cerca de 110 crianças, no primeiro dia do conflito.

No Congresso, vários democratas seniores pediram uma fiscalização reforçada de plataformas de IA como o Maven. A deputada Sara Jacobs - membro da Comissão de Serviços Armados da Câmara - pediu regras e regulamentos claramente aplicados sobre como e quando os sistemas de IA são utilizados.

“As ferramentas de IA não são 100% fiáveis — podem falhar de formas subtis e, ainda assim, os operadores continuam a confiar demais nelas”, disse ela à NBC News no mês passado.

“Temos a responsabilidade de impor salvaguardas rigorosas ao uso de IA pelas forças militares e garantir que exista um ser humano no circuito em cada decisão para usar força letal, porque o custo de errar poderia ser devastador para os civis e para os militares que executam estas missões.”

Mas Mosley recuou face a sugestões de que a rapidez da plataforma da sua empresa está a precipitar a tomada de decisões no Pentágono e potencialmente a criar situações perigosas. Em vez disso, argumentou que a rapidez com que os comandantes estão agora a agir é uma “consequência do aumento da eficiência” que o Maven tornou possível.

Invocando “segurança operacional”, o Pentágono recusou-se a comentar quando abordado pela BBC sobre como sistemas de IA como o Maven serão utilizados no futuro ou sobre quem seria responsabilizado caso algo corra mal.

Mas parece que, nos EUA, os responsáveis estão a avançar com planos para integrar ainda mais o Maven nos seus sistemas.

Na semana passada, a agência de notícias Reuters informou que o Pentágono designou o Maven como “um programa oficial de registo” - estabelecendo-o como uma tecnologia a ser integrada a longo prazo em todo o exército dos EUA.

Numa carta obtida pela Reuters, o secretário-adjunto da Defesa Steve Feinberg disse que a plataforma proporcionaria aos comandantes “as ferramentas mais recentes necessárias para detetar, dissuadir e dominar os nossos adversários em todos os domínios”.

Inclui reportagens adicionais de Jemimah Herd

Inteligência artificial

Guerra no Irão

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar