Сэм Альтман заявил, что OpenAI ведет повторные переговоры с Пентагоном после «оппортунистической и неаккуратной» сделки

OpenAI заявила, что ведет пересмотр условий своего «спешного» соглашения с Пентагоном, чтобы добавить явные запреты на использование искусственного интеллекта для внутреннего наблюдения за американскими гражданами — положение, которое касается одного из самых спорных вопросов в противостоянии между военными США и индустрией ИИ.

Рекомендуемое видео


Внутренний меморандум, опубликованный в соцсетях, написал генеральный директор OpenAI Сэм Альтман, что компания «не должна была торопиться» с публикацией соглашения в пятницу.

«Проблемы очень сложные и требуют ясной коммуникации», — отметил он. «Мы искренне пытались снизить напряженность и избежать гораздо худшего исхода, но, по моему мнению, это выглядело как попытка воспользоваться ситуацией и было неаккуратно».

По словам Альтмана, новый текст контракта будет гласить, что системы ИИ OpenAI не должны «намеренно использоваться для внутреннего наблюдения за гражданами и националами США», в соответствии с Четвертой поправкой, Законом о национальной безопасности 1947 года и Законом о внешнем разведывательном наблюдении 1978 года.

Катрин Муллиган, руководитель отдела национальной безопасности и партнерств OpenAI, ранее работавшая в Пентагоне, Совете национальной безопасности и Министерстве юстиции, также заявила, что компоненты оборонной разведки — включая Агентство национальной безопасности, Национальное агентство геопространственной разведки и Агентство оборонной разведки — не смогут использовать услуги OpenAI по условиям соглашения, а любое использование этими агентствами потребует отдельного изменения контракта.

Пересмотренные условия также добавят явные ограничения, касающиеся коммерчески приобретенных данных — таких как записи о местоположении мобильных телефонов или информация из фитнес-приложений, — что является юридической серой зоной. Согласно отчету в The Atlantic, конкурирующая компания Anthropic специально добивалась подобных гарантий против внутреннего наблюдения в своих переговорах с Пентагоном. Ее настойчивость в усилении мер предосторожности, запрещающих использование своих инструментов для слежки, по сообщениям, стала одним из главных препятствий, из-за которых эти переговоры в конечном итоге провалились.

Несмотря на пересмотренные условия, юридические эксперты поставили под сомнение их исполнимость.

«Это кажется значительным улучшением по сравнению с предыдущим текстом в отношении наблюдения, и я рад это видеть», — заявил Чарли Буллок, старший научный сотрудник Института права и ИИ, в посте на X. «Он не решает проблему автономного оружия и не претендует на это».

Независимые аналитики и сотрудники OpenAI также выступали за процесс, при котором независимые юристы смогут просматривать полный контракт и делиться своим анализом с заинтересованными сотрудниками.

Ответная реакция сотрудников

Пересмотренные условия последовали после того, как OpenAI столкнулась с волной критики как внутри компании, так и за ее пределами. Альтман уже признавал, что «не очень хорошо выглядело», когда компания согласилась на сделку с Пентагоном всего через несколько часов после того, как администрация Трампа назвала конкурента Anthropic «риском для цепочки поставок» за отказ от контракта без явных мер безопасности ИИ. Особенно это было заметно, поскольку ранее Альтман публично поддерживал красные линии Anthropic по вопросам массового наблюдения и автономного оружия.

Anthropic добивалась двух жестких ограничений в своих переговорах с Пентагоном: запрета на использование своего ИИ для массового наблюдения за гражданами США и запрета на внедрение своей технологии в системы автономного оружия — таких, которые могут принимать решения о нанесении ударов без прямого человеческого контроля.

Критики, в том числе Джонатан Иври, сотрудник лаборатории ответственного ИИ в Уортонской школе Пенсильванского университета, обвинили OpenAI в подрыве позиций Anthropic в критический момент.

«Что особенно разочаровывает, так это то, что остальная часть индустрии ИИ не поддержала Anthropic», — заявил Иври в Fortune. «Если бы эти компании действительно были привержены безопасному и ответственному ИИ (на чем они строили свою репутацию), они могли бы объединиться и выступить против Пентагона ради общественности. Вместо этого они позволили администрации играть ими друг против друга как рыночным конкурентам».

Многие сотрудники OpenAI подписали открытое письмо в поддержку Anthropic после этого конфликта. Потребители также выразили свою поддержку, отправив Claude — ИИ-помощника Anthropic — на вершину рейтингов App Store в Apple впервые, что свидетельствует о протесте пользователей. На тротуаре возле офиса компании в Сан-Франциско также появились граффити с критикой решения OpenAI.

Некоторые исследователи OpenAI даже выступили публично. Исследователь компании Аидан МакЛафлин разместил в X сообщение, что лично считает «этот договор не стоящим», и его просмотрели почти 500 000 человек.

Присоединяйтесь к нам на Форчун Воркплей Инновации Саммит 19–20 мая 2026 года в Атланте. Новая эпоха инноваций в рабочем пространстве уже наступила — и старые сценарии переписываются. На этом эксклюзивном, насыщенном событии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить