Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Користувачі Claude Code швидше ніж очікувалося досягають лімітів використання
Користувачі Claude Code натрапляють на ліміти використання «набагато швидше, ніж очікувалося»
2 дні тому
ПоділитисяЗберегти
Додати як бажане в Google
Річард Морріс Технологічний оглядач
Anthropic заявила, що намагається вирішити проблему, яка блокує користувачів її AI-інструмента для програмування.
Claude Code, AI-допомічник для написання комп’ютерного коду, став популярним упродовж останніх місяців.
Компанія оголосила на Reddit, що розслідує проблему, через яку ліміти використання досягаються швидше, ніж очікувалося.
Клієнти купують токени для використання AI-послуг — але кількість токенів, необхідна для кожного завдання, інколи є непрозорою.
Anthropic повідомила, що виправлення цього є для команди «головним пріоритетом».
Користувачі Claude залишили коментарі під дописом на Reddit: один із них сказав, що до ліміту токенів він дістався «набагато пізніше» у своєму безплатному акаунті, ніж у своєму платному акаунті за $100 (£75) на місяць.
Інший користувач, який говорив про баги, що можуть виникати в коді, створеному системою, прокоментував: «Один сеанс у циклі може витратити ваш щоденний бюджет за лічені хвилини».
А ще один коментар зазначав, що вплив був не лише на Claude Code: «Проста відповідь в одне речення на розмову перетворила моє використання з 59% на 100%. Як??»
Щойно минулого тижня Anthropic запровадила дроселювання сервісів у години пік для Claude, тобто токени витрачатимуться швидше, коли попит на послугу вищий.
Програмісти можуть використовувати Claude Code та інші подібні застосунки як частину свого щоденного робочого процесу, щоб допомагати з конкретними завданнями. Будь-які проблеми з сервісом можуть порушити їхню роботу.
Підписка Claude Pro коштує користувачам $20 на місяць. Підвищення тарифів для вищого використання може коштувати $100 або навіть $200 на місяць. Компанія також пропонує бізнес-ціноутворення для великих організацій.
Нещодавно Anthropic випадково оприлюднила частину свого внутрішнього вихідного коду для Claude Code через «людську помилку».
Внутрішній файл із 500 000 рядків коду був оприлюднений на GitHub, популярній платформі для розробників.
Представник Anthropic заявив, що це сталося через «людську помилку, а не порушення безпеки», і що «ніякі конфіденційні дані клієнтів або облікові дані не були оприлюднені чи залучені».
Вихідний код Claude Code вже був частково відомий, оскільки його раніше піддавали зворотному інжинірингу незалежні розробники. Раніше версію вихідного коду також витекли в лютому 2025 року.
Зараз Anthropic перебуває в юридичній боротьбі з урядом США щодо того, як її інструменти можна використовувати Міністерством оборони.
AI-компанія Anthropic шукає експерта зі зброї, щоб зупинити користувачів від «зловживань»
Суд відхилив спробу Пентагону «паралізувати» Anthropic
Якщо її попередять, що її видалять, AI-система вдається до шантажу
Підпишіться на нашу розсилку Tech Decoded, щоб стежити за найкращими технологічними історіями та тенденціями у світі. Не у Великій Британії? Підпишіться тут.
Штучний інтелект
Комп’ютерне програмування