Anthropic, OpenAI снижают требования к безопасности по мере ускорения гонки за ИИ

Anthropic, OpenAI ослабляют язык безопасности по мере ускорения гонки ИИ

Джейсон Нельсон

Чт, 26 февраля 2026 года, 10:41 AM GMT+9, 4 мин чтения

В этой статье:

GOOG

+0.68%

Anthropic убрала центральное обязательство по безопасности из своей Политики ответственного масштабирования, согласно отчету TIME. Изменения ослабляют обязательство, которое когда-то запрещало разработчику Claude AI обучать продвинутые ИИ-системы без гарантий защиты.

Этот шаг меняет то, как компания позиционирует себя в гонке ИИ против конкурентов OpenAI, Google и xAI. Anthropic долгое время позиционировала себя как одну из самых ориентированных на безопасность лабораторий в отрасли, но в соответствии с пересмотренной политикой Anthropic больше не обещает приостанавливать обучение, если меры по снижению рисков не будут полностью реализованы.

«Мы посчитали, что прекращение обучения ИИ-моделей не поможет никому», — сказал главный научный сотрудник Anthropic Джаред Каплан в интервью TIME. «Мы не чувствовали, что, с учетом быстрого развития ИИ, имеет смысл делать односторонние обязательства… если конкуренты стремительно продвигаются вперед».

Изменение происходит в то время, как Anthropic оказывается вовлеченной в публичный конфликт с министром обороны США Питом Хегсетом из-за отказа предоставить Пентагону полный доступ к Claude, что делает ее единственной крупной лабораторией ИИ среди Google, xAI, Meta и OpenAI, занявшей такую позицию.

Эдвард Гейст, старший научный сотрудник RAND Corporation, сказал, что прежняя формулировка «безопасности ИИ» возникла из конкретного интеллектуального сообщества, которое предшествовало сегодняшним большим языковым моделям.

«Несколько лет назад существовало направление безопасности ИИ», — сказал Гейст в интервью Decrypt. «Безопасность ИИ ассоциировалась с определенным набором взглядов, которые исходили от сообщества людей, заботившихся о мощном ИИ до того, как у нас появились эти LLM».

Гейст отметил, что ранние сторонники безопасности ИИ работали из совершенно другой концепции того, как будет выглядеть продвинутый искусственный интеллект.

Премьер-министр Великобритании ищет новые полномочия для регулирования ИИ-чатботов на фоне растущих опасений по поводу безопасности детей

«Они в конечном итоге конструировали проблему таким образом, что в некоторых отношениях это представляло нечто качественно отличное от этих текущих LLM, к лучшему или худшему», — сказал Гейст.

Гейст добавил, что изменение языка также подает сигнал инвесторам и политикам.

«Часть этого заключается в том, чтобы сигнализировать различным группам, что многие из этих компаний хотят создать впечатление, что они не сдерживаются в экономической конкуренции из-за опасений по поводу “безопасности ИИ”, — сказал он, добавив, что сама терминология меняется, чтобы соответствовать времени.

Anthropic не единственная, кто пересматривает свой язык безопасности.

Что определяет безопасность ИИ?

Недавний отчет некоммерческой новостной организации The Conversation отметил, как OpenAI также изменила свою миссию в своем заявлении в IRS за 2024 год, убрав слово “безопасно”.

История продолжается  

Ранее компания заявляла о намерении создать универсальный ИИ, который «безопасно приносит пользу человечеству, не ограничиваясь необходимостью получать финансовую прибыль». Обновленная версия теперь заявляет, что ее цель — «обеспечить, чтобы искусственный общий интеллект приносил пользу всему человечеству».

«Проблема с термином безопасность ИИ в том, что никто, похоже, не знает, что это именно означает», — сказал Гейст. «Тем не менее, термин безопасность ИИ также был оспорен».

Новая политика Anthropic подчеркивает меры прозрачности, такие как публикация «дорожных карт безопасности на переднем крае» и регулярные «отчеты о рисках», и говорит, что она будет откладывать разработку, если считает, что существует значительный риск катастрофы.

Сдвиги в политике Anthropic и OpenAI происходят в то время, как компании стремятся укрепить свои коммерческие позиции.

Быстрорастущий открытый ИИ-ассистент Clawdbot испытывает пределы автоматизации и безопасности

В начале этого месяца Anthropic сообщила, что привлекла 30 миллиардов долларов при оценке примерно в 380 миллиардов долларов. В то же время OpenAI завершает раунд финансирования с поддержкой Amazon, Microsoft и Nvidia, который может достигнуть 100 миллиардов долларов.

Anthropic и OpenAI, наряду с Google и xAI, получили прибыльные государственные контракты с Министерством обороны США. Однако для Anthropic контракт кажется под вопросом, поскольку Пентагон рассматривает возможность разрыва связей с ИИ-компанией из-за жалоб на доступ.

Поскольку капитал поступает в сектор, а геополитическая конкуренция усиливается, Хамза Чаудри, руководитель направления ИИ и национальной безопасности Института будущего жизни, сказал, что изменение политики отражает изменения политической динамики, а не стремление получить бизнес Пентагона.

«Если бы это было так, они просто отступили бы от того, что сказал Пентагон неделю назад», — сказал Чаудри в интервью Decrypt. «Дарио [Амодеи] не появлялся бы на встречах».

Вместо этого Чаудри заявил, что переписывание отражает переломный момент в том, как компании ИИ говорят о рисках по мере роста политического давления и конкурентных ставок.

«Anthropic теперь говорит: “Слушайте, мы не можем продолжать говорить о безопасности, мы не можем безусловно приостанавливать, и мы будем добиваться гораздо более легкого регулирования”, — сказал он.

Условия и Политика конфиденциальности

Панель конфиденциальности

Дополнительная информация

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.37KДержатели:2
    1.04%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить