Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O chefe da Palantir no Reino Unido afirma que cabe às forças armadas decidir como a focalização por IA é utilizada na guerra
O chefe da Palantir UK diz que cabe aos exércitos decidir como é usado o alvo por IA na guerra
há 8 minutos
PartilharGuardar
Adicionar aos preferidos no Google
Marc Cieslak,correspondente de IAe
Matt Murphy,BBC Verify
O Louis Mosley, da Palantir, diz que cabe às forças armadas a forma como os sistemas de IA são utilizados
A gigante tecnológica Palantir recuou face a preocupações de que o uso militar das suas plataformas de IA possa conduzir a riscos não previstos, numa entrevista exclusiva à BBC, garantindo que a forma como a tecnologia é utilizada é da responsabilidade dos seus clientes militares.
Isto acontece no momento em que especialistas manifestaram preocupação com o uso da plataforma de defesa da Palantir, alimentada por IA - Maven Smart System - durante operações em tempo de guerra e com a sua utilização, alegadamente, em ataques dos EUA ao Irão.
Analistas alertaram que o uso da plataforma pelo exército, que ajuda o pessoal a planear ataques, deixa pouco tempo para uma “verificação significativa” do seu resultado e pode levar a que sejam atingidos alvos incorrectos.
Mas o chefe da Palantir para o Reino Unido e a Europa, Louis Mosley, disse à BBC, numa entrevista abrangente, que embora plataformas de IA como a Maven tenham sido “instrumentais” para a gestão, pelos EUA, da guerra do Irão, a responsabilidade pela forma como o seu output é utilizado tem de permanecer sempre “com a organização militar”.
“Há sempre um humano no ciclo, por isso há sempre um humano que toma a decisão final. É assim que funciona actualmente.”
O Maven Smart System foi lançado pelo Pentágono em 2017 e foi concebido para acelerar as decisões de targeting militar, reunindo grandes quantidades de dados, incluindo uma variedade de informações de inteligência, imagens de satélite e de drones.
O sistema analisa estes dados e pode então fornecer recomendações para o targeting. Pode também sugerir o nível de força a utilizar com base na disponibilidade de pessoal e de equipamento militar, como aeronaves.
Mas a fiscalização tem aumentado relativamente ao uso de ferramentas deste tipo em conflitos. Em fevereiro, o Pentágono anunciou que iria avançar com o faseamento da plataforma de IA Claude, da Anthropic - que ajuda a alimentar a Maven - depois de a empresa ter recusado permitir o uso da sua IA em armas autónomas e em vigilância. A Palantir diz que alternativas podem substituí-la.
Desde o início da guerra com o Irão, em fevereiro, os EUA terão usado a Maven para planear ataques em todo o país.
Imagens de demonstração do Maven Smart System da Palantir
Impulsionado pela BBC pelo risco de a Maven poder sugerir alvos incorrectos - o que poderia incluir civis - Mosley afirmou que a plataforma serve apenas para orientar e acelerar o processo de tomada de decisão do pessoal militar e que não deve ser vista como um sistema de targeting automatizado.
“Pode pensar nisso como uma ferramenta de apoio”, disse Mosley. “Está a permitir que sintetizem enormes quantidades de informação que, antes, teriam de fazer manualmente, uma por uma.”
No entanto, Mosley deferiu às forças armadas individuais quando foi confrontado pela BBC, face ao risco de comandantes pressionados pelo tempo estarem a ordenar aos seus oficiais que tratem o output da Maven como se estivesse carimbado.
“Essa é realmente uma questão para os nossos clientes militares. São eles que decidem o quadro de políticas que determina quem pode tomar que tipo de decisão”, disse. “Não é o nosso papel.”
Desde 28 de fevereiro, os EUA desferiram mais de 11.000 ataques contra o Irão, muitos dos quais, segundo relatos, identificados pela Maven.
O almirante Brad Cooper, chefe do Exército dos EUA no Médio Oriente, elogiou os sistemas de IA por ajudarem os oficiais a “filtrar, em segundos, quantidades enormes de dados, para que os nossos líderes consigam ultrapassar o ruído e tomar decisões mais inteligentes mais rapidamente do que o inimigo consegue reagir”.
A empresa de IA Anthropic procura especialista em armas para impedir utilizadores de ‘usar indevidamente’
A OpenAI altera acordo com o exército dos EUA após reação
Trump manda o governo parar de usar a Anthropic na batalha sobre o uso de IA
Mas alguns receiam que a participação da IA no planeamento de missões crie riscos significativos.
“Esta priorização da velocidade e da escala e do uso da força deixa muito pouco tempo para uma verificação significativa dos alvos, para garantir que não incluem alvos civis por acidente”, disse a professora Elke Schwarz, da Queen Mary University of London.
“Se houver um risco de matar e se cooptar muito do seu pensamento crítico para um software que trate dessas questões por si, então passa a depender do software”, acrescentou. “É uma corrida para o fundo.”
Nas últimas semanas, dirigentes do Pentágono têm sido confrontados com questões sobre se ferramentas de IA como a Maven foram usadas para identificar alvos no ataque mortal a uma escola na localidade iraniana de Minab. Autoridades iranianas disseram que o ataque matou 168 pessoas, incluindo cerca de 110 crianças, no primeiro dia da guerra.
No Congresso, vários democratas séniores pediram um escrutínio reforçado de plataformas de IA como a Maven. A deputada Sara Jacobs - membro da Comissão dos Assuntos Militares da Câmara - pediu regras e regulamentos claramente aplicados sobre como e quando é que os sistemas de IA são usados.
“As ferramentas de IA não são 100% fiáveis — podem falhar de formas subtis e, ainda assim, os operadores continuam a confiar demais nelas”, disse ela ao NBC News no mês passado.
“Temos a responsabilidade de impor barreiras de segurança rigorosas ao uso de IA pelas forças armadas e garantir que há sempre um humano no ciclo em cada decisão de usar força letal, porque o custo de errar poderia ser devastador para os civis e para os membros do serviço que executam estas missões.”
Mas Mosley recuou face a sugestões de que a rapidez da plataforma da sua empresa está a acelerar a tomada de decisões no Pentágono e a potencialmente criar situações perigosas. Em vez disso, argumentou que a rapidez com que agora os comandantes estão a agir é uma “consequência do aumento da eficiência” que a Maven permitiu.
Invocando “segurança operacional”, o Pentágono recusou-se a comentar quando foi contactado pela BBC sobre como é que sistemas de IA como a Maven serão usados no futuro, ou sobre quem seria responsabilizado caso algo corra mal.
Mas as autoridades nos EUA parecem estar a avançar com planos para integrar ainda mais a Maven nos seus sistemas.
Na semana passada, a agência de notícias Reuters informou que o Pentágono designou a Maven como “um programa oficial de referência” - estabelecendo-a como uma tecnologia a integrar a longo prazo em todo o sistema militar dos EUA.
Numa carta obtida pela Reuters, o subsecretário de Defesa Steve Feinberg disse que a plataforma forneceria aos comandantes “as ferramentas mais recentes necessárias para detectar, dissuadir e dominar os nossos adversários em todos os domínios”.
Reporting adicional de Jemimah Herd
inteligência artificial
guerra do Irão