Заблоковано OpenClaw! Anthropic планує стягувати додаткову плату за виклики сторонніх інструментів

robot
Генерація анотацій у процесі

AI(штучний інтелект)-новаторський гігант Anthropic завдав розробникам, які використовують OpenClaw («ракоподібний»), а також розробникам її флагманської моделі Claude, відчутного удару.

Місцевим часом 3 квітня, як повідомляє технологічний сайт The Verge, Anthropic незабаром заблокує сторонні інструменти доступу на кшталт OpenClaw до сервісу передплати Claude; користувачам потрібно буде ввімкнути певний режим оплати за потребою, щоб і надалі поєднувати OpenClaw і Claude.

Лист, який компанія надіслала користувачам, показує, що починаючи з 4 квітня о 3:00 дня за київським часом у Східному поясі США, користувачі, які використовують Claude AI через OpenClaw, виявлять, що наявні раніше ліміти передплати більше не застосовуватимуться.

Це означає, що Anthropic перекриває доступ до стандартних пакетів передплати для обгорток сторонніх викликів, зокрема включно з OpenClaw, змушуючи користувачів переходити на окрему систему тарифікації з оплатою за обсяг. Такий режим зазвичай має вищу вартість за 1 токен, ніж ліміти в моделі передплати, тобто розробники можуть зіткнутися з витратами, що виходять за межі встановленого бюджету й є складними для прогнозування.

Для більшості користувачів, які одночасно працюють із OpenClaw і Claude, це коригування по суті рівнозначне забороні. Хоча Anthropic не блокує OpenClaw безпосередньо на технічному рівні, для команд, які вибудували навколо OpenClaw цілі робочі процеси та залежать від його виклику Claude через поширені інтерфейси, ця зміна одразу створить подвійний тиск — і фінансовий, і операційний.

Публічні дані показують, що Anthropic була заснована в 2021 році колишніми співробітниками OpenAI. Її продукти включають серію великомасштабних моделей Claude. З моменту заснування компанія послідовно отримувала інвестиції від технологічних гігантів на кшталт Amazon, Google, Nvidia та Salesforce.

Щодо цього коригування платіжної політики, уже багато розробників висловили обурення в соцмережах, скаржачись на нестабільність платформи та кризу довіри. Деякі відомі розробники AI вказали, що саме тому обрали платформу Claude, бо Anthropic, здається, більше за інших конкурентів прагне будувати екосистему сторонніх розробок; однак ця зміна політики нівелює таку перевагу.

За всім цим стоїть дедалі запекліша конкуренція між AI-компаніями. OpenClaw спочатку відокремився від Claude, повністю покладався на те, що Claude надає інтелектуальні можливості, і навіть за вимогою Anthropic змінив назву з «Clawdbot» на нині широко відому «ракувату/ракомобільну» — «рако півника» — «ракоподібного». Після цього засновник OpenClaw Пітер Штайнбергер (Peter Steinberger) приєднався до OpenAI.

Підвищуючи вартість використання сторонніх інструментів, Anthropic намагається спрямувати користувачів на власну екосистему. На початку цього року Anthropic випустила настільний застосунок-інтелектуального агента Claude Cowork. Нещодавно Anthropic знову представила власного «ракоподібного» та оголосила, що користувачі продуктів Claude Code і Claude Cowork зможуть дозволити Claude керувати своїм комп’ютером: відкривати файли, користуватися браузером і запускати інструменти розробки.

А ще трохи раніше Anthropic несподівано «відкрила вихідний код» 510k рядків вихідного коду свого кодингового помічника Claude Code; він містить 4756 вихідних файлів, понад 40 модулів інструментів і низку невипущених функцій, які були оприлюднені в результаті витоку. Для такої компанії, як Anthropic, яка наголошує на «безпеці» та активно прагне до IPO, витік вихідного коду без сумніву є серйозним ударом.

(Джерело: The Paper / 澎湃新闻)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити