Руководитель Palantir в Великобритании заявил, что решать, как использовать ИИ для наведения в военных действиях, должны военные ведомства

Руководитель Palantir UK заявил, что это зависит от вооружённых сил — как использовать ИИ-наведение в войне

2 дня назад

ПоделитьсяСохранить

Добавить как предпочтительное в Google

Марк Цезлак,AI корреспондент и

Мэтт Мёрфи,BBC Verify

Louis Mosley из Palantir говорит, что вооружённые силы отвечают за то, как используются ИИ-системы

Крупнейшая технокомпания Palantir отступила назад от опасений, что военные могут использовать её ИИ-платформы так, что это приведёт к непредвиденным рискам. В эксклюзивном интервью BBC компания заявила, что способ применения технологии — это ответственность её военных клиентов.

Это происходит на фоне того, что эксперты выразили обеспокоенность использованием оборонной платформы Palantir, работающей на базе ИИ, — Maven Smart System — во время боевых действий, а также её, как сообщается, применением в атаках США по Ирану.

Аналитики предупреждали, что применение платформы военными — она помогает персоналу планировать атаки — оставляет слишком мало времени для «значимой проверки» её результатов и может привести к тому, что будут поражены неверные цели.

Но глава Palantir по Великобритании и Европе Louis Mosley в широком интервью BBC сказал, что, хотя ИИ-платформы вроде Maven были «инструментальными» для управления США войной с Ираном, ответственность за то, как используется их выходной сигнал, всегда должна оставаться «у военной организации».

«Всегда есть человек в контуре, поэтому всегда есть человек, который принимает окончательное решение. Так устроено сейчас».

Maven Smart System был запущен Пентагоном в 2017 году и предназначен для ускорения решений по военному наведению за счёт объединения масс данных, включая целый спектр данных разведки, спутниковые и дроновые изображения.

Система анализирует эти данные и затем может выдавать рекомендации по наведению. Она также может предлагать уровень применения силы в зависимости от доступности персонала и военной техники, такой как самолёты.

Но внимание к использованию таких инструментов в войне усилилось. В феврале Пентагон объявил, что начнёт выводить из эксплуатации систему ИИ Claude компании Anthropic — которая помогает обеспечивать работу Maven — после того, как компания отказалась разрешить использование её ИИ в автономном оружии и системах наблюдения. Palantir говорит, что альтернативы могут заменить её.

С начала войны с Ираном в феврале, как сообщается, США использовали Maven для планирования ударов по всей стране.

Демонстрационные кадры Maven Smart System от Palantir

Толчком со стороны BBC стало то, что Maven может предложить неверные цели — включая гражданских — и на этот риск Mosley заявил, что платформа предназначена лишь служить руководством для ускорения процесса принятия решений у военного персонала и что её не следует воспринимать как автоматизированную систему наведения.

«Вы можете думать о ней как об инструменте поддержки», — сказал Mosley. «Это позволяет им синтезировать огромные объёмы информации, которые раньше им приходилось делать вручную — по одному за раз».

Однако, когда BBC поставила под сомнение риск того, что из-за дефицита времени командиры могут отдавать своим офицерам приказы воспринимать выходные данные Maven как подтверждённые без проверки, Mosley отложил вопрос к отдельным вооружённым силам.

«Это в первую очередь вопрос для наших военных клиентов. Именно они решают рамки политики, которые определяют, кто может принимать какое решение», — сказал он. «Это не наша роль».

С 28 февраля США запустили более 11,000 ударов по Ирану, многие, как сообщается, определялись при помощи Maven.

Адм. Брэд Купер, глава американских военных на Ближнем Востоке, приветствовал ИИ-системы за помощь офицерам «просеивать огромные объёмы данных за секунды, чтобы наши лидеры могли пробиться сквозь шум и принимать более умные решения быстрее, чем противник успеет отреагировать».

AI-компания Anthropic ищет эксперта по оружию, чтобы остановить пользователей от «злоупотреблений»

OpenAI меняет сделку с военными США после общественной критики

Трамп приказывает правительству прекратить использовать Anthropic в бою — спор о применении ИИ

Но некоторые опасаются, что участие ИИ в планировании миссий создаёт значительные риски.

«Приоритизация скорости и масштаба и затем использование силы оставляет очень мало времени для значимой проверки целей, чтобы убедиться, что там случайно не окажутся гражданские объекты», — сказала профессор Эльке Шварц из Лондонского университета Queen Mary.

«Если есть риск убить, и вы подменяете значительную часть вашего критического мышления программным обеспечением, которое позаботится об этих вещах за вас, то вы просто становитесь зависимыми от программного обеспечения», — добавила она. «Это гонка ко дну».

В последние недели официальным лицам Пентагона задавали вопросы о том, использовались ли ИИ-инструменты, такие как Maven, для выявления целей в смертоносном ударе по школе в иранском городе Минаб. Иранские чиновники заявили, что удар в результате привёл к гибели 168 человек, включая около 110 детей, в первый день войны.

В Конгрессе ряд старших демократов призвали усилить проверку ИИ-платформ вроде Maven. Республиканская Сэара Джейкобс (член Комитета Палаты представителей по делам вооружённых сил) призвала установить чётко закреплённые правила и нормы о том, как и когда используются ИИ-системы.

«Инструменты ИИ не на 100% надёжны — они могут давать сбои незаметными способами, и при этом операторы продолжают слишком сильно им доверять», — сказала она NBC News в прошлом месяце.

«Мы несем ответственность за то, чтобы обеспечить строгие предохранительные ограждения при использовании военными ИИ, и гарантировать, что человек находится в контуре принятия каждого решения о применении смертоносной силы, потому что цена ошибки может быть разрушительной для гражданских и для военнослужащих, выполняющих эти миссии».

Но Mosley оттолкнул предложения о том, что скорость платформы его компании ускоряет принятие решений в Пентагоне и потенциально создаёт опасные ситуации. Вместо этого он утверждал, что скорость, с которой командиры теперь действуют, — это «следствие повышенной эффективности», которую обеспечил Maven.

Ссылаясь на «операционную безопасность», Пентагон отказался комментировать, когда BBC обратилась с вопросом о том, как ИИ-системы вроде Maven будут использоваться в будущем, или кто будет нести ответственность, если что-то пойдёт не так.

Но, похоже, официальные лица в США движутся вперёд с планами дальнейшей интеграции Maven в свои системы.

На прошлой неделе агентство Reuters сообщило, что Пентагон назначил Maven «официальной программой эталона» — закрепив его как технологию, которая будет интегрирована на долгосрочной основе в вооружённые силы США.

В письме, полученном Reuters, заместитель министра обороны Стив Файнберг заявил, что платформа предоставит командирам «самые современные инструменты, необходимые для выявления, сдерживания и доминирования над нашими противниками во всех сферах».

Дополнительные материалы подготовила Джемимах Херд

Искусственный интеллект

Война с Ираном

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$2.22KДержатели:1
    0.00%
  • Закрепить