Microsoft заявляет, что продукты Anthropic остаются доступны для клиентов после внесения в черный список Пентагона

В этой статье

  • MSFT

Следите за своими любимыми акциями СОЗДАТЬ БЕСПЛАТНЫЙ АККАУНТ

Генеральный директор Microsoft Сатья Наделла выступает на мероприятии Microsoft AI Tour в Мюнхене, Германия, 25 февраля 2026 года

Sven Hoppe | Picture Alliance | Getty Images

Microsoft заявил в четверг, что будет сохранять встроенные технологии искусственного интеллекта стартапа Anthropic в своих продуктах для клиентов, за исключением Министерства войны США.

Ранее в этот же день федеральное агентство проинформировало Anthropic о том, что оно будет классифицировано как риск в цепочке поставок. Anthropic впоследствии заявила, что намерена оспорить это решение в суде.

На прошлой неделе президент США Дональд Трамп призвал федеральные агентства прекратить использование технологий Anthropic, а министр войны Пит Хегсэт заявил, что Anthropic будет предоставлять свои услуги Пентагону не более шести месяцев. CNBC подтвердило, что модели Anthropic сыграли роль в недавних воздушных ударах США по Ирану.

Вскоре после того, как переговоры между Министерством войны и Anthropic по поводу массового внутреннего наблюдения и полностью автономного оружия разошлись в пятницу, конкурент Anthropic — OpenAI — заявил, что Пентагон согласился запускать свои модели для секретных задач.

Microsoft стала первой крупной компанией, заявившей, что продолжит работу с Anthropic после действий Пентагона. Некоторые компании, занимающиеся оборонными технологиями, сообщили сотрудникам о необходимости прекратить использование моделей Claude от Anthropic и перейти на альтернативы.

«Наши юристы изучили это решение и пришли к выводу, что продукты Anthropic, включая Claude, могут оставаться доступны нашим клиентам — за исключением Министерства войны — через платформы такие как M365, GitHub и Microsoft AI Foundry, и что мы можем продолжать сотрудничество с Anthropic по проектам, не связанным с обороной», — сообщил представитель Microsoft в электронном письме CNBC.

Microsoft поставляет свои технологии различным правительственным агентствам США. Программное обеспечение Microsoft 365 широко используется в Министерстве войны. В сентябре Microsoft объявила о внедрении генеративных моделей искусственного интеллекта Anthropic в дополнение Microsoft 365 Copilot для подписчиков Microsoft 365, наряду с моделями OpenAI.

Многие разработчики программного обеспечения используют модели Claude от Anthropic для написания исходного кода, и они доступны в сервисе GitHub Copilot AI для разработки программного обеспечения, вместе с конкурирующими моделями Codex от OpenAI.

Генеральный директор Microsoft Сатья Наделла изначально стремился инвестировать и тесно сотрудничать с OpenAI. В последнее время Наделла сделал доступными в продуктах Microsoft модели искусственного интеллекта от других разработчиков.

«Выбор модели!» — написал Наделла в октябрьском посте в X, демонстрируя возможность переключения между моделями Anthropic и OpenAI в Microsoft 365 Copilot.

В ноябре Microsoft заявила, что Anthropic обязалась потратить 30 миллиардов долларов на облачные услуги Microsoft Azure, а сама Microsoft согласилась инвестировать до 5 миллиардов долларов в Anthropic. Эти суммы больше для партнерства Microsoft с OpenAI. По состоянию на октябрь, Microsoft владела долей в 135 миллиардов долларов в публичной благотворительной корпорации OpenAI, а OpenAI планировала потратить 250 миллиардов долларов на Azure.

— В этом отчёте принял участие Эшли Капут из CNBC.

Выберите CNBC в качестве вашего предпочтительного источника в Google и никогда не пропустите ни одного важного события от самого надежного имени в бизнес-новостях.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить