Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O chefe da Palantir no Reino Unido afirma que cabe às forças armadas decidir como a focalização por IA é utilizada na guerra
O chefe da Palantir UK diz que cabe às forças armadas decidir como é utilizada a mira por IA na guerra
Há 1 dia
PartilharGuardar
Adicionar como preferido no Google
Marc Cieslak, correspondente de IA e
Matt Murphy, BBC Verify
O Louis Mosley, da Palantir, afirma que as forças armadas são responsáveis por como os sistemas de IA são utilizados
A gigante tecnológica Palantir rejeitou preocupações de que o uso militar de suas plataformas de IA possa levar a riscos imprevistos, numa entrevista exclusiva à BBC, insistindo que a forma como a tecnologia é usada é responsabilidade dos seus clientes militares.
Isto ocorre enquanto especialistas expressaram preocupação com o uso da plataforma de defesa alimentada por IA — Maven Smart System — durante o tempo de guerra e com o seu uso reportado em ataques dos EUA ao Irão.
Analistas alertaram que o uso da plataforma pelas forças militares, que ajuda o pessoal a planejar ataques, deixa pouco tempo para uma “verificação significativa” do seu resultado e pode levar a alvos incorretos a serem atingidos.
Mas o responsável da empresa para o Reino Unido e Europa, Louis Mosley, afirmou à BBC, numa entrevista abrangente, que embora plataformas de IA como a Maven tenham sido “instrumentais” na gestão, pelos EUA, da guerra no Irão, a responsabilidade pelo uso do seu output deve sempre permanecer “com a organização militar”.
“Há sempre um humano no ciclo, por isso há sempre alguém que toma a decisão final. Este é o esquema atual.”
O Maven Smart System foi lançado pelo Pentágono em 2017 e foi concebido para acelerar decisões de mira militar ao reunir grandes volumes de dados, incluindo uma variedade de inteligência, imagens de satélite e de drones.
O sistema analisa esses dados e pode depois fornecer recomendações para a mira. Também pode sugerir o nível de força a usar com base na disponibilidade de pessoal e equipamento militar, como aeronaves.
No entanto, a fiscalização tem aumentado relativamente ao uso de ferramentas deste tipo na guerra. Em fevereiro, o Pentágono anunciou que iria eliminar gradualmente o sistema de IA Claude, da Anthropic — que ajuda a potenciar a Maven — após a empresa recusar-se a permitir o uso da sua IA em armas autónomas e vigilância. A Palantir afirma que alternativas podem substituí-la.
Desde o início da guerra com o Irão, em fevereiro, os EUA reportadamente usaram a Maven para planejar ataques em todo o país.
Imagens de demonstração do Maven Smart System da Palantir
Questionado pela BBC sobre o risco de a Maven sugerir alvos incorretos — o que poderia incluir civis —, Mosley insistiu que a plataforma serve apenas como guia para acelerar o processo de decisão do pessoal militar e que não deve ser vista como um sistema automatizado de mira.
“Pode pensar nisso como uma ferramenta de apoio”, disse Mosley. “Permite-lhes sintetizar vastas quantidades de informação que, anteriormente, teriam de fazer manualmente, uma a uma.”
No entanto, Mosley afastou-se quando questionado pela BBC sobre o risco de comandantes sob pressão de tempo ordenarem aos seus oficiais que tratassem o output da Maven como uma validação automática.
“Essa é mesmo uma questão para os nossos clientes militares. São eles que decidem o quadro de políticas que determina quem pode tomar que decisão”, afirmou. “Essa não é a nossa função.”
Desde 28 de fevereiro, os EUA lançaram mais de 11.000 ataques contra o Irão, muitos dos quais, segundo relatos, foram identificados pela Maven.
O almirante Brad Cooper, chefe da força militar dos EUA no Médio Oriente, elogiou os sistemas de IA por ajudarem os oficiais a “esmiuçar em segundos vastas quantidades de dados, para que os nossos líderes possam cortar o ruído e tomar decisões mais inteligentes mais rápido do que o inimigo consegue reagir”.
Empresa de IA Anthropic procura especialista em armas para impedir uso indevido
OpenAI altera acordo com o Ministério da Defesa dos EUA após reação negativa
Trump ordena ao Governo que pare de usar a Anthropic na guerra devido ao uso de IA
No entanto, alguns temem que a participação da IA no planeamento de missões crie riscos significativos.
“Esta priorização da velocidade, da escala e do uso da força deixa muito pouco tempo para uma verificação significativa dos alvos, para garantir que não incluam civis por acidente”, afirmou a professora Elke Schwarz, da Queen Mary University of London.
“Se há risco de matar e se confiar demasiado no software que vai tratar dessas questões por si, acaba por ficar dependente dele”, acrescentou. “É uma corrida para o fundo.”
Nas últimas semanas, responsáveis do Pentágono têm sido questionados sobre se ferramentas de IA como a Maven foram usadas para identificar alvos no ataque mortal a uma escola na cidade iraniana de Minab. Autoridades iranianas disseram que o ataque matou 168 pessoas, incluindo cerca de 110 crianças, no primeiro dia da guerra.
No Congresso, vários democratas de alto nível pediram maior escrutínio às plataformas de IA como a Maven. A deputada Sara Jacobs — membro da House Armed Services Committee — pediu regras e regulamentos claramente aplicados sobre como e quando os sistemas de IA são utilizados.
“As ferramentas de IA não são 100% confiáveis — podem falhar de maneiras sutis e, ainda assim, os operadores continuam a confiar excessivamente nelas”, afirmou ela ao NBC News no mês passado.
“Temos a responsabilidade de impor limites rigorosos ao uso de IA pelas forças militares e garantir que haja sempre um humano no ciclo de decisão de usar força letal, porque o erro pode ser devastador para civis e para os militares envolvidos nessas missões.”
Por outro lado, Mosley rejeitou sugestões de que a velocidade da plataforma da sua empresa esteja a acelerar a tomada de decisão no Pentágono e a criar situações perigosas. Em vez disso, argumentou que a rapidez com que os comandantes agem atualmente é uma “consequência da maior eficiência” que a Maven permitiu.
Invocando “segurança operacional”, o Pentágono recusou-se a comentar quando abordado pela BBC sobre como sistemas de IA como a Maven serão utilizados no futuro ou quem seria responsabilizado se algo correr mal.
No entanto, os responsáveis nos EUA parecem avançar com planos de integrar ainda mais a Maven nos seus sistemas.
Na semana passada, a agência Reuters reportou que o Pentágono designou a Maven como “um programa oficial de referência” — estabelecendo-a como uma tecnologia a ser integrada a longo prazo em todo o setor militar dos EUA.
Numa carta obtida pela Reuters, o vice-secretário de Defesa, Steve Feinberg, afirmou que a plataforma fornecerá aos comandantes “as ferramentas mais recentes necessárias para detectar, dissuadir e dominar os nossos adversários em todos os domínios”.
Reporte adicional de Jemimah Herd
Inteligência artificial
Guerra do Irão