Anthropic, OpenAI зменшують використання мов безпеки у міру прискорення гонки штучного інтелекту

Anthropic, OpenAI зменшують мовлення про безпеку, оскільки гонка ШІ прискорюється

Джейсон Нельсон

Чт, 26 лютого 2026 року, 10:41 AM GMT+9 4 хв читання

У цій статті:

GOOG

+0.68%

Anthropic скасувала центральну обіцянку безпеки зі своєї Політики відповідального масштабування, згідно з повідомленням TIME. Зміни послаблюють зобов’язання, яке раніше забороняло розробнику Claude AI навчати розвинені системи ШІ без гарантованих механізмів безпеки.

Цей крок змінює позицію компанії в гонці ШІ проти конкурентів OpenAI, Google та xAI. Anthropic давно позиціонувала себе як одну з найорієнтованіших на безпеку лабораторій у галузі, але відповідно до оновленої політики, Anthropic більше не обіцяє зупиняти навчання, якщо заходи щодо зменшення ризиків не будуть повністю реалізовані.

«Ми вважали, що зупинка навчання моделей ШІ насправді не допоможе нікого», — сказав головний науковий співробітник Anthropic Джаред Каплан у коментарі для TIME. «Ми не відчували, що з урахуванням швидкого розвитку ШІ має сенс робити односторонні зобов’язання… якщо конкуренти стрімко йдуть вперед».

Зміна відбувається на фоні публічного спору Anthropic з міністром оборони США Пітом Хегсетом через відмову надати Пентагону повний доступ до Claude, що робить її єдиною великою лабораторією ШІ серед Google, xAI, Meta та OpenAI, яка займає таку позицію.

Едвард Гейст, старший дослідник політики в Корпорації RAND, зазначив, що рання формулювання «безпеки ШІ» виникла з певної інтелектуальної спільноти, яка передувала сьогоднішнім великим мовним моделям.

«Кілька років тому існувала галузь безпеки ШІ», — сказав Гейст у коментарі для Decrypt. «Безпека ШІ була пов’язана з певним набором поглядів, які виникли зі спільноти людей, які турбувалися про потужний ШІ, ще до того, як у нас з’явилися ці LLM».

Гейст сказав, що ранні прихильники безпеки ШІ працювали з дуже іншим уявленням про те, яким буде розвинений штучний інтелект.

Прем’єр-міністр Великобританії шукає нові повноваження для регулювання чат-ботів ШІ у зв’язку з зростаючими занепокоєннями щодо безпеки дітей

«Вони врешті-решт концептуалізували проблему таким чином, що в деяких аспектах уявляли щось якісно інше, ніж ці нинішні LLM, на краще чи на гірше», — сказав Гейст.

Гейст зазначив, що зміна мови також посилає сигнал інвесторам і політикам.

«Частина цього полягає в сигналізації різним групам, що багато з цих компаній хочуть створити враження, що вони не стримуються в економічній конкуренції через занепокоєння щодо “безпеки ШІ”, — сказав він, додавши, що сама термінологія змінюється, щоб відповідати часам.

Anthropic не єдина, хто переглядає свою безпекову мову.

Що визначає безпеку ШІ?

Недавній звіт неприбуткової новинної організації The Conversation зазначив, як OpenAI також змінила свою місію у своїй подачі до IRS за 2024 рік, виключивши слово «безпечно».

Історія продовжується  

Раніше компанія зобов’язувалася створювати універсальний ШІ, який «безпечно приносить користь людству, не обмежуючись потребою генерувати фінансовий прибуток». Оновлена версія тепер стверджує, що її мета — «забезпечити, щоб штучний загальний інтелект приносив користь всьому людству».

«Проблема з терміном безпека ШІ в тому, що ніхто, здається, не знає, що це насправді означає», — сказав Гейст. «З іншого боку, термін безпека ШІ також оспорювався».

Нова політика Anthropic підкреслює заходи прозорості, такі як публікація «дорожніх карт безпеки на передовій» і регулярні «звіти про ризики», і зазначає, що затримає розробку, якщо вважає, що існує значний ризик катастрофи.

Зміни в політиці Anthropic і OpenAI відбуваються в той час, коли компанії прагнуть зміцнити свої комерційні позиції.

Швидко зростаючий відкритий ШІ-асистент Clawdbot випробовує межі автоматизації — і безпеки

Раніше цього місяця Anthropic оголосила, що залучила 30 мільярдів доларів за оцінкою близько 380 мільярдів доларів. Водночас OpenAI завершує раунд фінансування, підтриманий Amazon, Microsoft і Nvidia, який може досягти 100 мільярдів доларів.

Anthropic і OpenAI, разом з Google і xAI, отримали вигідні державні контракти з Міністерством оборони США. Однак для Anthropic контракт виглядає під питанням, оскільки Пентагон розглядає можливість розірвання зв’язків з AI-компанією через скарги на доступ.

У той час як капітал надходить у сектор, а геополітична конкуренція посилюється, Хамза Чаудрі, керівник відділу ШІ та національної безпеки Інституту майбутнього життя, сказав, що зміна політики відображає зміни політичної динаміки, а не спробу отримати бізнес Пентагону.

«Якби це було так, вони просто б відступили від того, що сказав Пентагон тиждень тому», — сказав Чаудрі у коментарі для Decrypt. «Дарио [Амодеї] не з’явився б на зустріч».

Замість цього Чаудрі зазначив, що переписування відображає переломний момент у тому, як компанії ШІ говорять про ризики, оскільки зростає політичний тиск і конкурентні ставки.

«Anthropic зараз каже: “Дивіться, ми не можемо продовжувати говорити про безпеку, ми не можемо безумовно зупинятися, і ми будемо виступати за набагато легше регулювання”, — сказав він.

Умови та Політика конфіденційності

Панель конфіденційності

Більше інформації

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.27KХолдери:2
    0.00%
  • Рин. кап.:$2.37KХолдери:2
    1.04%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Закріпити