Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les utilisateurs de Claude Code atteignent leurs limites d'utilisation « beaucoup plus rapidement que prévu »
Les utilisateurs de Claude Code atteignant des limites d’utilisation « beaucoup plus vite que prévu »
Il y a 2 jours
PartagerEnregistrer
Ajouter comme favori sur Google
Richard MorrisTechnologue reporter
Anthropic affirme qu’elle cherche à résoudre un problème qui empêche les utilisateurs de son outil de code assisté par IA.
Claude Code, l’assistant IA pour écrire du code informatique, est devenu populaire ces derniers mois.
La société a annoncé sur Reddit qu’elle enquêtait sur un problème où les limites d’utilisation étaient atteintes plus vite que prévu.
Les clients achètent des jetons pour utiliser des services d’IA — mais la quantité de jetons nécessaire pour chaque tâche est parfois opaque.
Anthropic a déclaré que le fait de corriger cela était la « priorité absolue » pour l’équipe.
Des utilisateurs de Claude ont commenté sous la publication sur Reddit, l’un d’eux disant qu’il avait atteint la limite de jetons « beaucoup plus tard » sur son compte gratuit que sur son compte payant à 100 $ (75 £) par mois.
Un autre utilisateur, parlant de bugs pouvant se former dans le code créé, a commenté « Une seule session dans une boucle peut vider votre budget quotidien en quelques minutes ».
Et un autre commentaire a indiqué que l’impact ne concernait pas seulement Claude Code, en disant : « Une réponse simple en une seule phrase à une conversation m’a fait passer de 59 % d’utilisation à 100 %. Comment ?? »
Juste la semaine dernière, Anthropic a introduit un ralentissement pendant les heures de pointe sur Claude, ce qui signifie que les jetons seront consommés plus rapidement lorsque la demande pour le service est plus élevée.
Les développeurs de logiciels peuvent utiliser Claude Code et d’autres applications similaires dans le cadre de leur flux de travail quotidien pour les aider à accomplir des tâches spécifiques. Tout problème avec le service peut perturber leur travail.
Un abonnement Claude Pro coûte 20 $ par mois aux utilisateurs. L’augmentation des paliers pour une utilisation plus élevée peut coûter 100 $ ou même 200 $ par mois. La société propose également une tarification entreprise pour les organisations plus importantes.
Récemment, Anthropic a accidentellement publié une partie de son code source interne pour Claude Code à cause de « d’une erreur humaine ».
Un fichier interne contenant 500 000 lignes de code a été publié sur GitHub, une plateforme populaire pour les développeurs.
Un porte-parole d’Anthropic a déclaré que la publication était due à « une erreur humaine, et non à une violation de sécurité », et que « aucune donnée client sensible ni aucun identifiant n’a été exposé ou impliqué ».
Le code source de Claude Code était déjà partiellement connu, puisqu’il avait auparavant été rétro-ingénieré par des développeurs indépendants. Une version antérieure du code source avait également été divulguée en février 2025.
Anthropic est actuellement engagée dans une bataille juridique avec le gouvernement américain concernant la façon dont ses outils peuvent être utilisés par le Département de la Défense.
Le cabinet d’IA Anthropic cherche un expert en armes pour empêcher les utilisateurs de « mauvais usage »
Le juge rejette la tentative du Pentagone de « crippler » Anthropic
Le système d’IA a recours au chantage s’il lui est dit qu’il sera retiré
Inscrivez-vous à notre newsletter Tech Decoded pour suivre les meilleures histoires et tendances technologiques du monde. En dehors du Royaume-Uni ? Inscrivez-vous ici.
Intelligence artificielle
Programmation informatique