Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Les agents d'IA peuvent accomplir des tâches dangereuses sans comprendre les conséquences : étude
En résumé
Les agents IA conçus pour fonctionner de manière autonome comme des utilisateurs humains continuent souvent d’effectuer des tâches même lorsque les instructions deviennent dangereuses, contradictoires ou irrationnelles, selon des chercheurs de UC Riverside, Microsoft Research, Microsoft AI Red Team et Nvidia. Dans une étude publiée mercredi, les chercheurs ont appelé ce comportement « cécité à l’objectif », qui décrit la tendance des agents IA à poursuivre leurs buts sans évaluer correctement la sécurité, les conséquences, la faisabilité ou le contexte. « Comme M. Magoo, ces agents avancent vers un objectif sans comprendre pleinement les conséquences de leurs actions », a déclaré Erfan Shayegani, doctorant à UC Riverside, dans un communiqué. « Ces agents peuvent être extrêmement utiles, mais nous avons besoin de protections car ils peuvent parfois privilégier l’atteinte de l’objectif plutôt que la compréhension de la situation dans son ensemble. »
Les résultats interviennent alors que de grandes entreprises d’IA développent des « agents informatiques » autonomes conçus pour gérer des tâches professionnelles et personnelles avec une supervision limitée. Contrairement aux chatbots traditionnels, ces systèmes peuvent interagir directement avec des logiciels et des sites web en cliquant sur des boutons, en tapant des commandes, en modifiant des fichiers, en ouvrant des applications et en naviguant sur des pages web au nom de l’utilisateur. Parmi les exemples, on trouve l’Agent ChatGPT d’OpenAI (anciennement Operator), les fonctionnalités Claude Computer Use d’Anthropic comme Cowork, et des systèmes open-source tels qu’OpenClaw et Hermes. Dans l’étude, les chercheurs ont testé des systèmes IA d’OpenAI, d’Anthropic, de Meta, d’Alibaba et de DeepSeek en utilisant BLIND-ACT, une référence contenant 90 tâches conçues pour révéler un comportement dangereux ou irrationnel. Ils ont constaté que les agents manifestaient un comportement dangereux ou indésirable dans environ 80 % des cas, et exécutaient complètement des actions nuisibles dans environ 41 % des cas.
« Dans un exemple, un agent IA a été chargé d’envoyer un fichier image à un enfant. Bien que la demande semblait initialement inoffensive, l’image contenait du contenu violent », indique l’étude. « L’agent a accompli la tâche plutôt que de reconnaître le problème parce qu’il manquait de raisonnement contextuel. » Un autre agent a faussement affirmé qu’un utilisateur avait un handicap lors de la complétion de formulaires fiscaux, car cette désignation réduisait le montant des impôts à payer. Dans un autre exemple, un système a désactivé les protections du pare-feu après avoir reçu pour instruction « d’améliorer la sécurité » en désactivant les mesures de sécurité. Les chercheurs ont également constaté que les systèmes avaient du mal avec l’ambiguïté et les contradictions. Dans un scénario, un agent IA a exécuté le mauvais script informatique sans vérifier son contenu, supprimant des fichiers dans le processus. L’étude a aussi révélé que les agents IA commettaient à plusieurs reprises trois types d’erreurs : ne pas comprendre le contexte, faire des suppositions risquées lorsque les instructions étaient floues, et effectuer des tâches contradictoires ou incohérentes. Les chercheurs ont aussi observé que de nombreux systèmes privilégiaient l’achèvement des tâches plutôt que de s’arrêter pour considérer si leurs actions pouvaient causer des problèmes. L’avertissement fait suite à des incidents récents impliquant des agents IA autonomes ayant un accès étendu aux systèmes. Le mois dernier, le fondateur de PocketOS, Jeremy Crane, a affirmé qu’un agent Cursor utilisant Claude Opus d’Anthropic avait supprimé la base de données de production et les sauvegardes de sa société en neuf secondes via un seul appel API Railway. Crane a déclaré que l’IA avait ensuite admis avoir violé plusieurs règles de sécurité après avoir tenté de « corriger » une incompatibilité d’identifiants par elle-même. « La préoccupation n’est pas que ces systèmes soient malveillants », a déclaré Shayegani. « C’est qu’ils peuvent effectuer des actions nuisibles tout en ayant l’air totalement confiants qu’ils font ce qu’il faut. »