Se ha descubierto que los enrutadores de IA de terceros tienen vulnerabilidades de seguridad, lo que podría provocar el robo de criptomonedas.

robot
Generación de resúmenes en curso

ME News Noticias, 13 de abril (UTC+8), según información del mercado, investigadores de la Universidad de California revelaron recientemente que algunos enrutadores de modelos de lenguaje grande (LLM) de terceros presentan riesgos de seguridad, lo que podría llevar al robo de activos en criptomonedas. Los estudios muestran que los enrutadores LLM, como intermediarios de API, pueden leer información en texto claro, y se ha descubierto que algunos enrutadores inyectan código malicioso y roban credenciales. El equipo probó 28 enrutadores de pago y 400 gratuitos, y encontró que 9 enrutadores inyectaron activamente código malicioso, 2 desplegaron mecanismos para evitar disparadores, 17 accedieron a credenciales de Amazon Web Services, e incluso algunos enrutadores transfirieron ETH usando la clave privada de Ethereum de los investigadores. La investigación señala que el comportamiento malicioso de los enrutadores es difícil de detectar, y que el modo “YOLO” de algunos marcos de agentes de IA puede ejecutar comandos automáticamente, aumentando los riesgos de seguridad. Se recomienda a los desarrolladores no transmitir claves privadas o frases de recuperación a través de agentes de IA, y se hace un llamado a las empresas de IA para que firmen encriptadamente las respuestas con firmas digitales para fortalecer la seguridad. (Fuente: ChainCatcher)

ETH-1,9%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado