La société de sécurité AI Depthfirst a découvert plusieurs vulnérabilités clés sur Internet, affirmant que le coût est seulement un dixième de celui d'Anthropic Mythos

robot
Création du résumé en cours

BlockBeats Infos, le 12 mai, la startup de cybersécurité AI Depthfirst a annoncé que son modèle d’exploration de vulnérabilités AI développé en interne avait découvert plusieurs vulnérabilités de sécurité critiques que Mythos d’Anthropic avait manquées, et a affirmé que le coût total était seulement un dixième de celui de ce dernier. Le PDG de Depthfirst, Qasim Mithani, a déclaré que, en optimisant l’architecture du modèle pour une tâche unique, ils pouvaient réaliser « 1000 dollars pour faire le travail que Mythos coûte 10 000 dollars ».

Depthfirst a également lancé un nouveau programme appelé « Open Defense Initiative », qui offrira un total de 5 millions de dollars, pour donner accès à ses outils de détection de vulnérabilités AI aux entreprises et aux développeurs open source, afin de découvrir des problèmes de sécurité dans le code.

L’article mentionne qu’une vulnérabilité clé découverte par Depthfirst existe dans NGINX, le serveur web le plus utilisé au monde, qui est présente depuis 2008 et pourrait théoriquement affecter un grand nombre de sites internet mondiaux. F5 Networks, qui maintient NGINX, prévoit de publier un correctif cette semaine.

De plus, Depthfirst a révélé avoir découvert une vulnérabilité critique dans le système Linux, pouvant être utilisée pour exécuter du code malveillant à distance, qui n’a pas encore été corrigée. Son modèle a également identifié plusieurs problèmes de sécurité dans le navigateur Google Chrome et le cadre multimédia open source FFmpeg, dont une vulnérabilité liée à Chrome a déjà été corrigée par Google.

Le rapport indique qu’avec l’accélération de la détection de vulnérabilités par l’IA, l’industrie de la cybersécurité entre dans une phase de « cyberdéfense et cyberattaque simultanées par l’IA ». Auparavant, Anthropic avait révélé que son modèle Claude était utilisé par des hackers chinois pour des attaques en ligne, et cette semaine, Google a également averti que des groupes criminels avaient commencé à utiliser l’IA pour développer des outils d’attaque « zero-day ».

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler