Користувачі Claude Code швидше ніж очікувалося досягають лімітів використання

Користувачі Claude Code натрапляють на ліміти використання «набагато швидше, ніж очікувалося»

2 дні тому

ПоділитисяЗберегти

Додати як бажане в Google

Річард Морріс Технологічний оглядач

Getty Images

Anthropic заявила, що намагається вирішити проблему, яка блокує користувачів її AI-інструмента для програмування.

Claude Code, AI-допомічник для написання комп’ютерного коду, став популярним упродовж останніх місяців.

Компанія оголосила на Reddit, що розслідує проблему, через яку ліміти використання досягаються швидше, ніж очікувалося.

Клієнти купують токени для використання AI-послуг — але кількість токенів, необхідна для кожного завдання, інколи є непрозорою.

Anthropic повідомила, що виправлення цього є для команди «головним пріоритетом».

Користувачі Claude залишили коментарі під дописом на Reddit: один із них сказав, що до ліміту токенів він дістався «набагато пізніше» у своєму безплатному акаунті, ніж у своєму платному акаунті за $100 (£75) на місяць.

Інший користувач, який говорив про баги, що можуть виникати в коді, створеному системою, прокоментував: «Один сеанс у циклі може витратити ваш щоденний бюджет за лічені хвилини».

А ще один коментар зазначав, що вплив був не лише на Claude Code: «Проста відповідь в одне речення на розмову перетворила моє використання з 59% на 100%. Як??»

Щойно минулого тижня Anthropic запровадила дроселювання сервісів у години пік для Claude, тобто токени витрачатимуться швидше, коли попит на послугу вищий.

Програмісти можуть використовувати Claude Code та інші подібні застосунки як частину свого щоденного робочого процесу, щоб допомагати з конкретними завданнями. Будь-які проблеми з сервісом можуть порушити їхню роботу.

Підписка Claude Pro коштує користувачам $20 на місяць. Підвищення тарифів для вищого використання може коштувати $100 або навіть $200 на місяць. Компанія також пропонує бізнес-ціноутворення для великих організацій.

Нещодавно Anthropic випадково оприлюднила частину свого внутрішнього вихідного коду для Claude Code через «людську помилку».

Внутрішній файл із 500 000 рядків коду був оприлюднений на GitHub, популярній платформі для розробників.

Представник Anthropic заявив, що це сталося через «людську помилку, а не порушення безпеки», і що «ніякі конфіденційні дані клієнтів або облікові дані не були оприлюднені чи залучені».

Вихідний код Claude Code вже був частково відомий, оскільки його раніше піддавали зворотному інжинірингу незалежні розробники. Раніше версію вихідного коду також витекли в лютому 2025 року.

Зараз Anthropic перебуває в юридичній боротьбі з урядом США щодо того, як її інструменти можна використовувати Міністерством оборони.

AI-компанія Anthropic шукає експерта зі зброї, щоб зупинити користувачів від «зловживань»

Суд відхилив спробу Пентагону «паралізувати» Anthropic

Якщо її попередять, що її видалять, AI-система вдається до шантажу

Підпишіться на нашу розсилку Tech Decoded, щоб стежити за найкращими технологічними історіями та тенденціями у світі. Не у Великій Британії? Підпишіться тут.

Штучний інтелект

Комп’ютерне програмування

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити