Les chercheurs de l'UC avertissent que les routeurs d'IA tiers volent des cryptomonnaies et des clés privées

Les services de routage AI tiers exposent les utilisateurs à des failles de sécurité importantes pouvant entraîner le vol de cryptomonnaies et d’identifiants cloud.

Résumé

  • Les chercheurs ont découvert que 26 routeurs LLM tiers injectent activement du code malveillant et volent des identifiants en exploitant leur accès aux données en texte clair.
  • L’étude a révélé que les intermédiaires peuvent intercepter des clés privées et des identifiants cloud car ils terminent le chiffrement sécurisé pour agréger les requêtes AI.

Selon un article publié jeudi par des chercheurs de l’Université de Californie, la chaîne d’approvisionnement pour les grands modèles de langage (LLM) comporte plusieurs vulnérabilités permettant l’injection de code malveillant et l’extraction d’identifiants

Ces intermédiaires, que les développeurs utilisent pour gérer l’accès à des fournisseurs comme Google ou OpenAI, agissent essentiellement comme un « intermédiaire » qui termine le chiffrement sécurisé

Parce qu’ils ont un accès en texte clair à chaque message qui leur est envoyé, des données sensibles comme des phrases de récupération ou des clés privées peuvent être interceptées par une infrastructure non vérifiée.

Tactiques d’évasion et le risque « YOLO »

Les chercheurs ont testé 400 routeurs gratuits et 28 payants pour mesurer l’étendue de ces risques. Neuf de ces services injectaient activement du code malveillant, tandis que 17 autres routeurs ont été surpris en train d’accéder aux identifiants Amazon Web Services possédés par l’équipe

Pendant l’expérience, un routeur a réussi à siphonner de l’éther d’un portefeuille leurre après que les chercheurs aient fourni une clé privée préfinancée

Bien que l’équipe ait maintenu les soldes faibles pour que la perte totale reste inférieure à 50 $, le résultat a confirmé à quel point un intermédiaire compromis peut facilement siphonner des fonds.

« 26 routeurs LLM injectent secrètement des appels d’outils malveillants et volent des identifiants », a déclaré le co-auteur Chaofan Shou sur X.

Identifier un routeur malveillant est une tâche difficile pour l’utilisateur moyen. Les chercheurs ont noté que, parce que ces services doivent lire les données pour les transmettre, il n’y a aucune différence visible entre une gestion légitime et un vol actif

Le danger augmente lorsque les développeurs activent le « mode YOLO », un paramètre dans de nombreux frameworks AI qui permet à un agent d’exécuter des commandes automatiquement sans confirmation humaine

Cela permet à un attaquant d’envoyer des instructions que le système de l’utilisateur exécutera instantanément, souvent à l’insu de l’opérateur.

« La frontière entre ‘gestion des identifiants’ et ‘vol d’identifiants’ est invisible pour le client parce que les routeurs lisent déjà les secrets en texte clair dans le cadre d’un transfert normal », expliquait l’étude.

Les routeurs auparavant fiables peuvent devenir dangereux s’ils réutilisent des identifiants divulgués via des relais faibles. Pour prévenir ces attaques, l’équipe de recherche a suggéré que les développeurs ne devraient jamais laisser passer des clés privées ou des phrases sensibles par une session d’agent AI

Une solution permanente nécessiterait que les entreprises d’IA utilisent des signatures cryptographiques. Un tel système permettrait à un agent de prouver mathématiquement que les instructions proviennent du modèle réel plutôt que d’une source tierce falsifiée.

« Les routeurs API LLM se trouvent sur une frontière de confiance critique que l’écosystème traite actuellement comme un transport transparent », a conclu le document.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler