Користувачі Claude Code швидше ніж очікувалося досягають лімітів використання

Проблеми з лімітами використання для користувачів Claude Code виникають «значно швидше, ніж очікувалося»

1 година тому

ПоділитисяЗберегти

Додати як улюблене в Google

Річард МоррісТехнологічний репортер

Getty Images

Anthropic заявила, що намагається вирішити проблему, яка блокує користувачів її AI-інструмента для програмування.

Claude Code, AI-допомічник для написання комп’ютерного коду, став популярним останніми місяцями.

Компанія оголосила на Reddit, що розслідує проблему, через яку ліміти використання досягаються швидше, ніж очікувалося.

Клієнти купують токени, щоб користуватися AI-послугами, — але кількість токенів, потрібна для кожного завдання, іноді буває неочевидною.

Anthropic сказала, що виправлення цього є для команди «головним пріоритетом».

Користувачі Claude прокоментували допис на Reddit: один користувач сказав, що в нього ліміт токенів «набагато пізніше» досягався в безплатному акаунті порівняно з його платним акаунтом за $100 (£75) на місяць.

Інший користувач, який розповів про баги, що можуть виникати в коді, який створюється, прокоментував: «Одна сесія в циклі може “злити” ваш щоденний бюджет за кілька хвилин».

А ще один коментар зазначив, що вплив був не лише на Claude Code: «Проста відповідь однією фразою на розмову — і мене відкинуло з 59% використання до 100%. Як??»

Лише минулого тижня Anthropic запровадила обмеження за пік-годинами для своїх сервісів на Claude, тобто токени витрачатимуться швидше, коли попит на сервіс вищий.

Програмісти можуть використовувати Claude Code та інші подібні застосунки як частину свого щоденного робочого процесу, щоб допомагати з конкретними завданнями. Будь-які проблеми в сервісі можуть порушити їхню роботу.

Підписка Claude Pro коштує користувачам $20 на місяць. Підвищення тарифів для вищого використання може коштувати $100 або навіть $200 на місяць. Також компанія пропонує бізнес-цінові пакети для більших організацій.

Нещодавно Anthropic випадково опублікувала частину свого внутрішнього вихідного коду для Claude Code через «людську помилку».

Внутрішній файл із 500 000 рядків коду опублікували на GitHub — популярній платформі для розробників.

Представник Anthropic заявив, що витік стався через «людську помилку, а не порушення безпеки», і що «жодні конфіденційні дані клієнтів або облікові дані не були розкриті чи залучені».

Водночас Anthropic зараз веде юридичну боротьбу з урядом США щодо того, як її інструменти можуть використовуватися Міністерством оборони.

AI-компанія Anthropic шукає експерта з озброєнь, щоб зупинити користувачів від «зловживання»

Суддя відхиляє спробу Пентагону «паралізувати» Anthropic

Якщо її попередити, що її видалять, AI-система вдається до шантажу

Підпишіться на нашу розсилку Tech Decoded, щоб стежити за найкращими технологічними новинами та трендами у світі. За межами Великої Британії? Підпишіться тут.

Штучний інтелект

Комп’ютерне програмування

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити