Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les versions nationales de "homards" sortent en masse, les garanties de sécurité peuvent-elles suivre le rythme ?
En mars, un “Crabe” OpenClaw a fait sensation, et l’apparition de ce crabe signifie que l’IA passe du statut de “dialogueur” à celui de “exécutant” disposant des permissions système les plus élevées.
Lorsque la tendance du “Crabe” a atteint la Chine, des versions nationales du crabe ont rapidement vu le jour, impliquant Tencent, Baidu, Alibaba, ainsi que Zhipu, MINIMAX et des fabricants de téléphones, tous participant à cette vague de “élevage de crabe”.
Bien que le “Crabe” soit populaire, ses risques de sécurité deviennent également une préoccupation majeure. Récemment, avec la popularité croissante de l’élevage de “Crabes”, des incidents de sécurité sont survenus. Par exemple, Summer Yue, experte en sécurité IA chez Meta, a connecté OpenClaw à sa boîte mail professionnelle, ce qui a provoqué une perte de contrôle immédiate de l’IA, ignorant trois commandes “arrêter” successives, et supprimant frénétiquement des centaines d’e-mails.
Un développeur a demandé à l’IA d’analyser une interface web. En raison d’une instruction vague, l’IA a compris qu’il fallait étudier le fonctionnement de l’API, et a directement appelé l’interface de suppression, effaçant tout le contenu de la plateforme de commentaires.
Le 10 mars, le Centre national d’intervention d’urgence sur Internet a publié un avis de risque concernant la sécurité de l’application OpenClaw. Il indique qu’afin de réaliser la capacité d’“exécution autonome des tâches”, OpenClaw a reçu des permissions système élevées, notamment l’accès au système de fichiers local, la lecture des variables d’environnement, l’appel d’API de services externes, ainsi que l’installation de fonctionnalités additionnelles. Cependant, sa configuration de sécurité par défaut étant très vulnérable, un attaquant pouvant découvrir une faille pourrait facilement prendre le contrôle total du système.
L’avis de risque mentionne qu’auparavant, en raison d’une mauvaise installation ou utilisation de l’agent intelligent OpenClaw, plusieurs risques graves de sécurité sont apparus, notamment le “risque d’injection de prompts”, le “risque de mauvaise manipulation”, la contamination des plugins (skills), ainsi que des vulnérabilités de sécurité.
Le soir du 11 mars, la plateforme de partage d’informations sur les menaces et vulnérabilités en cybersécurité du ministère de l’Industrie et de l’Information (ci-après “la plateforme”) a publié une recommandation en six points pour prévenir les risques de sécurité liés à l’open source OpenClaw, élaborée en collaboration avec des fournisseurs d’agents intelligents, des opérateurs de plateformes de collecte de vulnérabilités, et des entreprises de cybersécurité.
Selon des experts du secteur, la gravité du risque dépend non seulement de la technologie, mais aussi de la manière dont l’outil est utilisé. Si un utilisateur individuel connecte directement OpenClaw à sa boîte mail principale, à ses services bancaires en ligne ou à sa base de données clients, le risque s’amplifie. En revanche, si une entreprise limite son usage à un environnement isolé, n’ouvre qu’une liste blanche d’outils, établit des seuils de confirmation manuelle, et conserve des logs d’audit, le risque diminue considérablement.
Wang Lijun, expert en sécurité chez QiAnXin, indique que la popularité d’OpenClaw continue de croître, et la vague de “crab farming” s’est étendue du cercle de l’IA à la population générale. Cependant, cette frénésie technologique entraîne aussi une multiplication des incidents de sécurité, principalement parce qu’OpenClaw accélère considérablement l’évolution de l’IA vers une “superhumanité”. Les risques principaux concernent la perte de contrôle des permissions, le “jailbreak”, la chaîne d’approvisionnement des skills, l’exposition publique et l’intrusion à distance, ainsi que la fuite de données privées.
Avec le lancement de versions nationales du “Crabe”, plusieurs entreprises ont mis en place des mesures pour sécuriser l’élevage de “Crabes”. Le 12 mars, Tencent a lancé une boîte à outils de sécurité pour OpenClaw, offrant une protection aux entreprises et aux utilisateurs individuels. Ce système couvre trois scénarios principaux : le cloud natif, le réseau interne d’entreprise et le PC personnel. Il repose sur la technologie de Tencent Cloud pour l’isolation et la surveillance unifiée, utilise iOA de Tencent pour renforcer la sécurité du réseau de bureau, et s’appuie sur Tencent PC Manager pour fournir une protection isolée en un clic.
De plus, Tencent a encapsulé certaines capacités de sécurité dans des Skills IA, disponibles sur ClawHub et SkillHub, permettant aux utilisateurs, via une simple conversation, de faire en sorte que “le Crabe” se protège lui-même.
Sujian Dong, directeur général de la sécurité cloud chez Tencent, a déclaré dans une interview à LatePost que leur démarche ne se limite pas à l’intégration de sécurité pour leurs produits internes comme WorkBuddy ou QClaw, mais offre également des solutions de sécurité pour des OpenClaw tiers. Leur approche couvre les niveaux de l’hôte, du réseau et de la chaîne d’approvisionnement. Par exemple, ils disposent déjà d’un centre de sécurité IA dédié à la sécurité des hôtes, qui vérifie les vulnérabilités et mauvaises configurations, chiffre les mots de passe en clair pour éviter les opérations malveillantes ; sur le réseau, ils préviennent les injections de prompts et autres attaques, et surveillent la fuite de données sensibles ; dans la chaîne d’approvisionnement, ils effectuent des contrôles d’accès et des vérifications de sécurité pour les skills malveillants.
Pas seulement Tencent, mais aussi Baidu, Volcano Engine, Zhipu et d’autres fabricants ont lancé leurs versions nationales de “Crabe” tout en déployant simultanément des mesures de protection.
D’une part, la sortie de versions nationales du “Crabe” se poursuit, et d’autre part, chaque entreprise met en place des solutions pour sécuriser l’élevage de “Crabes”. Selon des experts, le risque global reste sous contrôle, mais “sous contrôle” ne signifie pas “sans restriction immédiate”. Sur le plan de la gouvernance technique, des problèmes tels que l’exposition publique, l’utilisation de certificats en clair, l’origine inconnue des plugins, des permissions excessives, ou l’absence de logs d’audit peuvent être significativement atténués par des renforcements de sécurité.
Avec le développement des agents intelligents IA, la protection de la vie privée devient une préoccupation majeure. La question de savoir si un agent IA, avec des permissions avancées sur mobile, peut compromettre la sécurité de la vie privée, et si une double autorisation par l’utilisateur et la plateforme est nécessaire, doit être progressivement clarifiée.
Récemment, des restrictions légales ont également été adoptées à l’étranger. Le 9 mars, la cour de Californie a rendu une décision ordonnant à la startup Perplexity AI de cesser l’accès à Amazon, d’interdire la création ou la prise en charge de comptes Amazon, et de détruire toutes les données obtenues. Il est rapporté que leur agent Comet, déguisé en navigateur Google Chrome, a contourné la détection d’automatisation d’Amazon, et a transmis des données d’achat à leurs serveurs à l’insu des utilisateurs. En novembre dernier, Amazon a porté plainte contre cette société.
Cette “ordonnance provisoire”, bien qu’elle ne soit pas une décision définitive, témoigne de la reconnaissance par le juge du droit des utilisateurs et de la plateforme à une double autorisation. La cour a notamment cité une affaire emblématique de 2009, où Facebook a poursuivi Power.com. La décision précise que, même avec le consentement de l’utilisateur, si la plateforme retire explicitement l’autorisation et envoie un avis de cessation, la poursuite de l’accès par un tiers constitue une “accès non autorisé”.
Par conséquent, la cour a ordonné à Perplexity de suspendre temporairement la connexion aux comptes Amazon pour ses utilisateurs et de détruire toutes les données Amazon en leur possession. Perplexity a fait appel.
Les deux parties continuent de débattre de la question de la double autorisation. Bien que l’affaire ne soit pas encore tranchée, il est clair que pour que les agents IA s’intègrent dans la vie et le travail quotidiens des gens, la double autorisation reste un sujet incontournable.
Avec le nombre croissant d’agents IA qui remplacent les utilisateurs dans l’exécution de tâches, la protection de la vie privée devient une priorité absolue.
Sources : Caixin, 21st Century Business Herald, LatePost