Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Anthropic, OpenAI зменшують використання мов безпеки у міру прискорення гонки штучного інтелекту
Anthropic, OpenAI зменшують мовлення про безпеку, оскільки гонка ШІ прискорюється
Джейсон Нельсон
Чт, 26 лютого 2026 року, 10:41 AM GMT+9 4 хв читання
У цій статті:
GOOG
+0.68%
Anthropic скасувала центральну обіцянку безпеки зі своєї Політики відповідального масштабування, згідно з повідомленням TIME. Зміни послаблюють зобов’язання, яке раніше забороняло розробнику Claude AI навчати розвинені системи ШІ без гарантованих механізмів безпеки.
Цей крок змінює позицію компанії в гонці ШІ проти конкурентів OpenAI, Google та xAI. Anthropic давно позиціонувала себе як одну з найорієнтованіших на безпеку лабораторій у галузі, але відповідно до оновленої політики, Anthropic більше не обіцяє зупиняти навчання, якщо заходи щодо зменшення ризиків не будуть повністю реалізовані.
«Ми вважали, що зупинка навчання моделей ШІ насправді не допоможе нікого», — сказав головний науковий співробітник Anthropic Джаред Каплан у коментарі для TIME. «Ми не відчували, що з урахуванням швидкого розвитку ШІ має сенс робити односторонні зобов’язання… якщо конкуренти стрімко йдуть вперед».
Зміна відбувається на фоні публічного спору Anthropic з міністром оборони США Пітом Хегсетом через відмову надати Пентагону повний доступ до Claude, що робить її єдиною великою лабораторією ШІ серед Google, xAI, Meta та OpenAI, яка займає таку позицію.
Едвард Гейст, старший дослідник політики в Корпорації RAND, зазначив, що рання формулювання «безпеки ШІ» виникла з певної інтелектуальної спільноти, яка передувала сьогоднішнім великим мовним моделям.
«Кілька років тому існувала галузь безпеки ШІ», — сказав Гейст у коментарі для Decrypt. «Безпека ШІ була пов’язана з певним набором поглядів, які виникли зі спільноти людей, які турбувалися про потужний ШІ, ще до того, як у нас з’явилися ці LLM».
Гейст сказав, що ранні прихильники безпеки ШІ працювали з дуже іншим уявленням про те, яким буде розвинений штучний інтелект.
Прем’єр-міністр Великобританії шукає нові повноваження для регулювання чат-ботів ШІ у зв’язку з зростаючими занепокоєннями щодо безпеки дітей
«Вони врешті-решт концептуалізували проблему таким чином, що в деяких аспектах уявляли щось якісно інше, ніж ці нинішні LLM, на краще чи на гірше», — сказав Гейст.
Гейст зазначив, що зміна мови також посилає сигнал інвесторам і політикам.
«Частина цього полягає в сигналізації різним групам, що багато з цих компаній хочуть створити враження, що вони не стримуються в економічній конкуренції через занепокоєння щодо “безпеки ШІ”, — сказав він, додавши, що сама термінологія змінюється, щоб відповідати часам.
Anthropic не єдина, хто переглядає свою безпекову мову.
Що визначає безпеку ШІ?
Недавній звіт неприбуткової новинної організації The Conversation зазначив, як OpenAI також змінила свою місію у своїй подачі до IRS за 2024 рік, виключивши слово «безпечно».
Раніше компанія зобов’язувалася створювати універсальний ШІ, який «безпечно приносить користь людству, не обмежуючись потребою генерувати фінансовий прибуток». Оновлена версія тепер стверджує, що її мета — «забезпечити, щоб штучний загальний інтелект приносив користь всьому людству».
«Проблема з терміном безпека ШІ в тому, що ніхто, здається, не знає, що це насправді означає», — сказав Гейст. «З іншого боку, термін безпека ШІ також оспорювався».
Нова політика Anthropic підкреслює заходи прозорості, такі як публікація «дорожніх карт безпеки на передовій» і регулярні «звіти про ризики», і зазначає, що затримає розробку, якщо вважає, що існує значний ризик катастрофи.
Зміни в політиці Anthropic і OpenAI відбуваються в той час, коли компанії прагнуть зміцнити свої комерційні позиції.
Швидко зростаючий відкритий ШІ-асистент Clawdbot випробовує межі автоматизації — і безпеки
Раніше цього місяця Anthropic оголосила, що залучила 30 мільярдів доларів за оцінкою близько 380 мільярдів доларів. Водночас OpenAI завершує раунд фінансування, підтриманий Amazon, Microsoft і Nvidia, який може досягти 100 мільярдів доларів.
Anthropic і OpenAI, разом з Google і xAI, отримали вигідні державні контракти з Міністерством оборони США. Однак для Anthropic контракт виглядає під питанням, оскільки Пентагон розглядає можливість розірвання зв’язків з AI-компанією через скарги на доступ.
У той час як капітал надходить у сектор, а геополітична конкуренція посилюється, Хамза Чаудрі, керівник відділу ШІ та національної безпеки Інституту майбутнього життя, сказав, що зміна політики відображає зміни політичної динаміки, а не спробу отримати бізнес Пентагону.
«Якби це було так, вони просто б відступили від того, що сказав Пентагон тиждень тому», — сказав Чаудрі у коментарі для Decrypt. «Дарио [Амодеї] не з’явився б на зустріч».
Замість цього Чаудрі зазначив, що переписування відображає переломний момент у тому, як компанії ШІ говорять про ризики, оскільки зростає політичний тиск і конкурентні ставки.
«Anthropic зараз каже: “Дивіться, ми не можемо продовжувати говорити про безпеку, ми не можемо безумовно зупинятися, і ми будемо виступати за набагато легше регулювання”, — сказав він.
Умови та Політика конфіденційності
Панель конфіденційності
Більше інформації