Що насправді стосується сага про безпеку Anthropic AI

Про що насправді вся ця історія з безпекою AI від Anthropic

Аналітика Лізи Еадісіко, Девіда Голдмана, CNN

Чт, 26 лютого 2026 р. о 10:48 PM GMT+9 5 хв читання

Співзасновник і генеральний директор Anthropic Даріо Амодей. — Chance Yeh/Getty Images

У Anthropic склалася знайома дилема для дедалі більшої технологічної компанії: як масштабуватися, не ставлячи під загрозу принципи, які відрізняють її від інших.

AI-компанія зробила безпеку своїм керівним принципом. Вона виступала за регулювання AI та закликала до захисту працівників, коли AI заміняє частину людських завдань. Anthropic доклала чимало зусиль, щоб донести до клієнтів конкретне повідомлення: «Ми — хороші хлопці».

Та самостійно встановлені нею запобіжні обмеження, які мали допомогти створити цей бренд, тепер можуть стати перешкодами для її успіху.

Цього тижня Пентагон висунув Anthropic ультиматум: зніміть свої етичні обмеження для AI або втратите контракт на $200 мільйонів і зіткнетеся з внесенням до чорного списку. Окремо, також цього тижня, Anthropic послабила свою ключову політику безпеки, щоб дати компанії більше свободи для зростання в конкурентному й швидкоплинному ринку.

Незрозуміло, як саме цього тижня розвиватимуться події для бізнесу Anthropic і її репутації, але ці рішення будуть визначальними.

Ми це знаємо, бо дилема Anthropic — це знайома ситуація для технологічної індустрії. Багато компаній вихваляються своїми цінностями та мораллю, а потім стикаються з важкими рішеннями, які змушують їх обирати між зростанням і збереженням цих ідеалів.

Anthropic, можливо, варто звернути на це увагу.

OpenAI і вихідні Семa

Сем Альтман, генеральний директор OpenAI. — Andrew Harnik/Getty Images

Ще трохи більше ніж два роки тому найбільший конкурент Anthropic зіткнувся з розбіжностями через зростання ціною безпеки.

У одній з найдивніших драм у залі засідань в історії корпорацій головний конкурент Anthropic — OpenAI — різко звільнив свого засновника й генерального директора Сема Альтмана в одну з листопадових п’ятниць 2023 року, а вже наступного вівторка повторно найняв його.

У цій історії була унікальна корпоративна структура: швидкоросла прибуткова компанія, що працює з ChatGPT, діяла під егідою неприбуткової ради. За чотири роки до цього компанія вписала в свій статут, що OpenAI залишається «занепокоєним» потенціалом AI «спричиняти швидкі зміни» для людства. Наглядова рада боялася, що Альтман рухається надто швидко й ризикує підірвати безпеку, яку компанія пообіцяла забезпечити.

Але звільнення Альтмана спричинило б загрози масового відходу працівників — ситуації, яка була б неприпустимою і могла б призвести до знищення компанії. Тож уже через кілька днів рада повторно найняла Альтмана. Незабаром після цього рада розпустилася, а минулого року Альтман змінив корпоративну структуру, щоб звільнитися від свого неприбуткового наглядача.

Відтоді OpenAI намагається знайти баланс між швидкістю та безпекою, зіткнувшись із низкою позовів, у яких стверджується, що її продукти переконали молодих людей нашкодити собі. OpenAI заперечує ці звинувачення.

Apple і стрілець із Сан-Бернардіно

Генеральний директор Apple Тім Кук. — Godofredo A. Vásquez/AP

Сьед Фарук і його дружина Ташфін Малик убили 14 людей у Inland Regional Center у Сан-Бернардіно, штат Каліфорнія, у грудні 2015 року. Пара згодом загинула під час перестрілки з поліцією.

Історія триває  

Розслідувачі отримали дозвіл на вилучення даних з iPhone Фарука, але не змогли отримати доступ, бо телефон був заблокований кодом-паролем. Суддя в Каліфорнії наказав Apple допомогти працівникам правоохоронних органів отримати доступ до телефону.

Але в відкритому листі, підписаному генеральним директором Apple Тімом Куком, компанія відмовила. Кук сказав, що рішення судді відкриє «вбудовані “чорні ходи” в iPhone», і це є «річчю, яку ми вважаємо надто небезпечною для створення». Компанія заявила, що не має співчуття до терористів, але виконання наказу надасть урядовим органам «можливість зазирати в пристрій будь-кого, щоб захопити їхні дані».

За це рішення Apple отримала величезну хвилю критики — включно з боку тодішнього кандидата в президенти Дональда Трампа. Але з того часу компанія здобула широке схвалення за те, що відстояла приватність своїх клієнтів, яка згодом стала синонімом бренду компанії.

Наразі компанія регулярно заявляє, що не продає дані клієнтів і не зберігає певну персональну інформацію на своїх серверах, намагаючись відрізнитися від Google — одного зі своїх головних конкурентів.

Etsy проти solo-продавців

Штаб-квартира Etsy у Нью-Йорку. — Michael M. Santiago/Getty Images

Коли імперія e-commerce Amazon лише починала злітати на початку 2000-х, Etsy з’явилась як нова альтернатива, де покупці могли знайти унікальні товари ручної роботи.

Але вона внесла суперечливу зміну в 2013 році, яка ставила під загрозу оцей підхід. Вона розширила свою політику, дозволивши продавцям використовувати виробників і передавати аутсорсу виробничі операції, що на той момент викликало занепокоєння, ніби тепер вона більше не надаватиме рівного ігрового поля для невеликих незалежних продавців, які не мають ресурсів наймати персонал.

Втім, це рішення було критично важливим для Etsy, щоб розширитися на той ринок, який вона має сьогодні: платформа зараз пропонує понад 100 мільйонів товарів для продажу та приблизно 8 мільйонів активних продавців.

«З точки зору бізнесу це спрацювало для Etsy, але для компанії це була складна мить», — сказав Арун Сундарараджан, директор Фабон-центру NYU Stern із технологій, бізнесу та інновацій.

Що далі для Anthropic

Мобільний застосунок Anthropic для AI Claude. — Michael M. Santiago/Getty Images

Ці приклади з практики пропонують для Anthropic застережливий план дій.

Тепер найближчим наслідком для Anthropic, імовірно, буде те, як клієнти та потенційні клієнти оцінюють компанію та наскільки їй довіряють, — сказав Оуен Деніелз, заступник директора з аналізу в Центрі безпеки та нових технологій імені Джорджтауна.

Anthropic заявила, що її запроваджені самою ж заходи безпеки завжди мали бути гнучкими та такими, що можуть змінюватися в міру еволюції AI. Вона пообіцяла бути прозорою щодо безпеки в майбутньому і сказала, що в неї «насправді не було вибору»: якщо вона зупиниться в зростанні, конкуренти, які не так цінують безпеку, можуть обігнати її й загалом зробити AI «менш безпечним».

Незрозуміло, до чого призведе зміна Anthropic, адже екзистенційні ризики AI досі здебільшого є «концептуальними», — зазначив Сундарараджан.

Він сказав, що буде скептично ставитися до будь-якого експерта, який назве це важливим моментом для безпеки AI. Але це може бути важливим моментом для компанії.

«Відступ Anthropic від певної обіцянки щодо безпеки, на мою думку, більше про Anthropic і менше про майбутнє AI», — сказав він.

Для більшої кількості новин CNN і розсилок створіть акаунт на CNN.com

Умови та політика конфіденційності

Панель приватності

Більше інформації

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити