Битва Пентагону з Anthropic стала першим реальним випробуванням того, як ми контролюватимемо потужний штучний інтелект. Погана новина: ми всі провалилися

Вітаємо в Eye on AI. У цьому випуску…Бій Pentagon з Anthropic піднімає три важливі питання…OpenAI залучила 110 мільярдів доларів нових інвестицій…Meta експериментує з AI-помічником для покупок…Великі мовні моделі можуть ідентифікувати псевдонімних користувачів інтернету у масштабі…дані центри на передовій у війні з Іраном.

Рекомендуване відео


Найважливішою новиною в сфері штучного інтелекту наразі без сумніву є конфлікт між Міністерством оборони США та Anthropic. Якщо ви не слідкували за цією історією, можете ознайомитися з моїм та колег з Fortune висвітленням тут, тут, тут, тут, тут і тут.

Ця ситуація піднімає щонайменше три критичних питання: хто має контролювати використання ШІ в демократичному суспільстві? Як цей контроль слід здійснювати? Які наслідки мають бути для компанії, яка не погоджується з політикою уряду?

Що б ви не думали про генерального директора OpenAI Сема Альтмана та його рішення укласти угоду з Пентагоном — включно з контрактним зобов’язанням дозволити військовим використовувати моделі ШІ OpenAI «для будь-яких законних цілей», що Anthropic відмовився погодити — Альтман правильно визначив, що стоїть на кону у цій боротьбі.

У сесії «Ask Me Anything» у X у вихідні, Альтман сказав:

Дуже важливий момент: ми не обрані. У нас є демократичний процес, де ми обираємо наших лідерів. Ми маємо експертизу у технологіях і розуміємо їхні обмеження, але я думаю, що вам слід боятися приватної компанії, яка вирішує, що є етичним, а що ні, у найважливіших сферах. Здається, нормально, що ми вирішуємо, як ChatGPT має відповідати на спірне питання. Але я справді не хочу, щоб ми вирішували, що робити, якщо на США летить ядерна бомба.

Це і була сутність заперечень Пентагону щодо існуючого контракту Anthropic. Військові вважали, що неправильно, щоб приватна компанія диктувала політику обраній владі.

ШІ рухається блискавично, Конгрес — повільно

Більшість американців, можливо, погодяться з позицією Пентагону — теоретично. Але на практиці це ускладнюється трьома речами. По-перше, технології ШІ розвиваються надзвичайно швидко, але механізми демократичного контролю — законодавство, конгресовий нагляд, вибори — рухаються дуже повільно. За три роки з моменту дебюту ChatGPT Конгрес не ухвалив жодного федерального законопроекту щодо ШІ. Адміністрація Трампа ліквідувала обмежені регуляції ШІ, запроваджені попередньою адміністрацією, і водночас діяла проти штатів, які ухвалювали власні регуляції.

Тому, хоча багато хто може погодитися, що політику щодо використання ШІ урядом мають визначати обрані посадовці, існує практичне питання — що робити, коли ці обрані представники не діють. Ідея вести політику щодо ШІ через контрактні переговори між лабораторіями та урядом — погана заміна справжнього демократичного управління, але можливо, краще, ніж відсутність будь-якого управління. Суперечка навколо контракту Anthropic з Пентагоном має стати сигналом для Конгресу діяти.

По-друге, за останні десятиліття тенденція урядів полягає у широкому тлумаченні існуючих законів з метою розширення повноважень уряду щодо використання технологій для спостереження за громадянами. (Історія — це поступове повернення виконавчої гілки влади до повноважень слідкувати, які вона втратила через дії Конгресу після скандалів Ватергейта та слухань Комітету Церкви у середині 1970-х.) Багато військових дій також приховані за таємницею, що ускладнює демократичний контроль і відповідальність. Постійне розширення меж дозволеного законом викликає недовіру громадськості до намірів уряду. Тому не дивно, що зараз деякі люди можуть більше довіряти, здавалося б, добре наміреному і геніальному, але необраним технологічним керівникам, наприклад, Дарио Амоді з Anthropic, які, на їхню думку, зроблять правильний вибір і встановлять правильну політику.

Нарешті, існує проблема, що багато американців мають щодо цього конкретного уряду. Адміністрація Трампа неодноразово вдавалася до безпрецедентних дій для покарання внутрішньої опозиції, часто на підставі слабких юридичних обґрунтувань або без них, і неодноразово використовувала військові сили всередині країни для залякування або покарання опозиції. Також вона розпочинала кілька військових операцій за кордоном без вагомих юридичних підстав. Тому цілком логічно, що багато хто ставить питання: чи слід цій адміністрації надавати право використовувати ШІ для будь-яких дій, які її юристи вважають легальними?

Незворотність націоналізації ШІ?

Навіть якщо ви вважаєте, що Пентагон правий у тому, що демократичні уряди, а не приватні компанії, мають вирішувати, як використовувати ШІ, наступне питання — як цей контроль слід здійснювати? Альтман підкреслив головне питання: якщо передова ШІ — стратегічна технологія, чому б уряду просто не націоналізувати її? Адже багато інших проривів із великими стратегічними наслідками — від Манхеттенського проекту до космічної гонки і початкових зусиль у розвитку ШІ — фінансувалися урядом і здебільшого керувалися ним. Як сказав Альтман, «мені здавалося вже давно, що краще було б, щоб створення AGI було урядовим проектом», хоча він додав, що «зараз це виглядає малоймовірним за поточною траєкторією».

Поточний підхід Пентагону близький до націоналізації іншими засобами. Одним із варіантів, який погрожував застосувати Міноборони, був Закон про оборонне виробництво (Defense Production Act), закон часів холодної війни, щоб змусити Anthropic поставити модель ШІ на своїх умовах — так званий м’який варіант націоналізації виробничої лінії Anthropic. А рішення позначити Anthropic як «ризик для ланцюга постачання» частково спрямоване на залякування інших компаній ШІ погодитися з умовами контракту Пентагону, що знову ж таки нагадує про націоналізацію.

Якою має бути ціна за незгоду в демократії?

Нарешті, це підводить нас до питання, яку відповідальність має нести компанія ШІ, яка відмовляється погодитися з бажаними урядом умовами контракту. Як сказав Дін Болл, експерт з політики ШІ, який коротко працював у адміністрації Трампа над її Планом дій щодо ШІ, уряд має право скасувати контракт із Anthropic на 200 мільйонів доларів.

Але рішення йти значно далі і позначити Anthropic як «ризик для ланцюга постачання» торкається основ приватної власності і свободи слова у ліберальній демократії. Це позначення — яке мало застосовуватися проти технологій, здатних допомогти іноземному ворогу саботувати критичні оборонні системи — ніколи раніше не застосовувалося до американської компанії і ніколи раніше не використовувалося для покарання компанії за відмову погодитися з контрактними умовами, яких бажає військо. За словами Болла, це фактично «спроба вбивства корпорації», оскільки за SCR будь-яка компанія, що співпрацює з Пентагоном, буде заборонена від будь-яких комерційних відносин із Anthropic. Якщо ця інтерпретація вірна — а багато юристів кажуть, що ні — це може стати смертельним ударом для Anthropic, яка залежить від продажу великим компаніям Fortune 500, що також співпрацюють із Пентагоном, у вигляді доходів, хмарної інфраструктури та венчурного фінансування. Чи має покарання за незгоду з урядом бути знищенням бізнесу? Це, безумовно, виглядає амеральним.

Альтман заявив, що уклав угоду з Пентагоном частково для зниження напруги між урядом і компаніями ШІ, сказавши, що «тісне партнерство між урядами та компаніями, що створюють цю технологію, дуже важливе». Хоч я і не впевнений у справжніх мотивах Альтмана, я погоджуюся з ним у цьому останньому пункті. У часи, коли ШІ потенційно загрожує безпрецедентними змінами в економіці та суспільстві, розпалювання недовіри і конфліктів між урядом і тими, хто створює передові системи ШІ, здається дуже поганою ідеєю.

З цим — ще більше новин про ШІ.

Джеремі Кахн
jeremy.kahn@fortune.com
@jeremyakahn

FORTUNE ПРО ШІ

Anthropic’s Claude обганяє ChatGPT у App Store через бойкот користувачів через контракт OpenAI з Пентагоном на 200 мільйонів доларів — автор Марко Кіроц-Гутієррес

Іран має намір і все більше інструментів для кібератак із використанням ШІ — автор Шарон Голдман

Ексклюзив: ветерани CrowdStrike і SentinelOne залучили 34 мільйони доларів для вирішення проблеми управління корпоративним ШІ — автор Беатріс Нолан

Угода OpenAI з Пентагоном піднімає нові питання щодо ШІ і масового спостереження — автор Беатріс Нолан

Тиждень, коли страх перед ШІ став реальністю, і Америка зрозуміла, що можливо, вона ще не готова до того, що нас чекає — автор Нік Ліхтенберг

НОВИНИ ПРО ШІ

OpenAI закриває раунд фінансування на 110 мільярдів доларів, оцінюючи компанію у 730 мільйонів доларів. У раунді беруть участь 30 мільярдів доларів від SoftBank, 50 мільярдів — від Amazon і 30 мільярдів — від Nvidia. Інвестиція Amazon частково пов’язана з покупкою OpenAI чипів Trainium і здійснюється поетапно, залежно від досягнення OpenAI певних цілей, таких як створення штучного загального інтелекту (AGI) або проведення первинного публічного розміщення акцій. Угода про розгортання на Amazon AWS позначає стратегічний зсув для OpenAI, яка раніше залежала від хмарних сервісів Microsoft Azure і GPU Nvidia, хоча сама OpenAI стверджує, що партнерство з Microsoft залишається ключовим. OpenAI також розглядає можливість виходу на IPO вже цього року. Детальніше — у Wall Street Journal.

Державні агентства починають припиняти співпрацю з Anthropic після позначки «ризик для ланцюга постачання» Пентагону та заяви Трампа. Міністерство фінансів США, Міністерство закордонних справ і Міністерство охорони здоров’я та соціальних служб оголосили про припинення використання моделі Claude Anthropic після директиви, виданої у п’ятницю президентом Дональдом Трампом. Це сталося наприкінці суперечливих переговорів Anthropic з Пентагоном, які зрештою зірвалися, і США позначили Anthropic як «ризик для ланцюга постачання». Anthropic здобув значний федеральний бізнес. Тепер уряд переходить на моделі ШІ від OpenAI, Google і в деяких випадках — xAI. Детальніше — у Reuters.

Meta тестує AI-помічника для покупок. За повідомленням Bloomberg, соціальна мережа прагне створити AI-інструмент для покупок, який зможе конкурувати з пропозиціями електронної комерції, інтегрованими у ChatGPT від OpenAI і Google Gemini. Функція Meta, яка вже запроваджується для деяких користувачів у США, пропонує рекомендації у карусельному форматі з зображеннями, цінами, брендовими деталями та короткими поясненнями, адаптуючись до даних, таких як місцезнаходження і стать, хоча покупки потрібно завершувати на сторонніх сайтах продавців. Генеральний директор Марк Цукерберг назвав цей крок частиною стратегії Meta щодо «особистої суперінтелектуальності», натякаючи, що майбутні агентські інструменти для покупок можуть поглибити зв’язки між AI-продуктами і рекламною екосистемою компанії.

Thinking Machines втрачає ще двох засновників. За даними Business Insider, Крістіан Гібсон і Ной Шпак, двоє з засновників високопрофільної AI-лабораторії «neolab», заснованої колишнім CTO OpenAI Мірою Мураті, тихо покинули компанію, щоб приєднатися до Meta. Це додає до загальної хвилі виходів із сінгапурської компанії, яка залучила 2 мільярди доларів на початковому етапі при оцінці у 12 мільярдів, але з труднощами у збереженні ключових кадрів через конкуренцію з Meta і OpenAI, які активно залучають інженерів.

ДОСЛІДЖЕННЯ ПРО ШІ

** ШІ може розпізнавати анонімних користувачів інтернету у масштабі.** Це показано у нещодавньому дослідженні ETH Zurich, Anthropic і MATS (ML Alignment & Theory Scholars). Вчені виявили, що якщо надати AI повний доступ до інтернету, вона зможе ідентифікувати псевдонімних осіб, які були опитані протягом 10 хвилин моделлю Claude Anthropic, аналізуючи ці інтерв’ю та інші пости на форумах, таких як Hacker News, Reddit і профілі LinkedIn. Вони стверджують, що зробити це за кілька хвилин може штучний інтелект, тоді як людині знадобилися б години. Методи на основі великих мовних моделей показали значно кращі результати, ніж попередні машинне навчання, досягаючи 90% точності (правильність ідентифікації) і 68% повноти (здатність знайти всі випадки). Це має великі наслідки для онлайн-конфіденційності. Здатність таких моделей робити подібне — одне з питань, яке Anthropic обговорювала з Пентагоном, оскільки повторне ідентифікування анонімних користувачів з відкритих джерел раніше було неможливим у масштабі, але тепер може стати реальністю. Документ можна прочитати тут.

КАЛЕНДАР ШІ

2-5 березня: Mobile World Congress, Барселона, Іспанія.

12-18 березня: South by Southwest, Остін, Техас.

16-19 березня: Nvidia GTC, Сан-Хосе, Каліфорнія.

6-9 квітня: HumanX 2026, Сан-Франциско.

ЇЖА ДЛЯ МОЗКУ

Чи стають дата-центри головними цілями у війнах із розвитком ШІ? — запитують деякі після повідомлень, що два дата-центри AWS у ОАЕ та один у Бахрейні були уражені іранськими ракетами або дронами, що вивело їх з ладу. Це змусило користувачів перейти на сервіси, розміщені у більш віддалених регіонах, і спричинило тимчасові збої у роботі. Також це могло додати затримки у хмарних додатках.

Не відомо точно, чому Іран атакував ці центри. Можливо, вони просто намагалися порушити інтернет-сервіси як спосіб покарати країни Перської затоки, що розмістили бази США. Але економіст і колишній міністр фінансів Греції Яніс Варуфакіс припустив, що Іран цілеспрямовано атакував об’єкти, щоб порушити використання Anthropic’s Claude військовими США.

Незважаючи на те, що Пентагон позначив Anthropic як «ризик для ланцюга постачання» і заявив, що військові припинять використання Claude «негайно», Wall Street Journal і Axios повідомляють, що військові використовують Claude для допомоги у обробці цілей у рамках операції Epic Fury — війни проти Ірану. Також відомо, що принаймні деякі секретні мережі, на яких працює Claude, розміщені на AWS.

Отже, Варуфакіс і інші припускають, що Іран атакував центри, щоб порушити використання Claude військовими США. Неясно, чи правда це у цій ситуації, але ймовірно, що у майбутніх конфліктах дата-центри, навіть дуже далекі від фронту, стануть цілями через критичну роль ШІ у веденні війни.

Приєднуйтесь до нас на Форумі інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у роботі вже тут — і старий сценарій переписується. На цьому ексклюзивному заході найінноваційніші лідери світу зберуться, щоб дослідити, як ШІ, людство і стратегія знову змінюють майбутнє праці. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити