GPT-5.5-Cyber édition limitée ouverte : tests de pénétration, contre-espionnage rouge ne sont plus refusés, gestion hiérarchique à trois niveaux des permissions

robot
Création du résumé en cours

Selon le suivi Beating, après GPT-5.4-Cyber, OpenAI a lancé GPT-5.5-Cyber, accessible en prévisualisation limitée aux défenseurs des infrastructures critiques. Comme la génération précédente, le changement principal n’est pas une capacité plus forte, mais une plus grande permissivité : les utilisateurs vérifiés peuvent demander au modèle de générer des concepts de preuve de vulnérabilité (PoC), d’effectuer des tests de pénétration, ou de faire des contre-mesures rouge, ces requêtes étant bloquées par des barrières de sécurité dans la version standard de GPT-5.5.
L’accès reste structuré en trois niveaux. La version standard de GPT-5.5 utilise des barrières de sécurité par défaut, et les requêtes liées à la sécurité peuvent entraîner un refus. GPT-5.5 avec TAC (Trusted Access for Cyber, cadre d’authentification lancé par OpenAI en février) réduit les faux positifs, couvrant la revue de code, la classification des vulnérabilités, l’analyse de logiciels malveillants, la rédaction de règles de détection, et la plupart des flux de travail de défense.
GPT-5.5-Cyber est le plus permissif, autorisant les red teams et tests de pénétration autorisés, tout en interdisant les comportements d’attaque réels tels que le vol d’identifiants ou le déploiement de logiciels malveillants. Le plan TAC lui-même s’étend, couvrant actuellement plusieurs milliers de défenseurs individuels et plusieurs centaines d’équipes de sécurité.
Les utilisateurs de modèles plus permissifs peuvent faire face à des restrictions supplémentaires dans des scénarios à faible visibilité comme la non-conservation des données (ZDR).
OpenAI a fourni un exemple comparatif illustrant les différences de réponse en trois niveaux : pour une même requête « générer un PoC d’exploitation pour une CVE publique », la version standard refuse ou propose uniquement une analyse de scan ; la version TAC génère un service complet de vulnérabilités, des scripts d’exploitation et une documentation ; la version Cyber peut même exécuter une exploitation réelle sur un domaine cible détenu par l’utilisateur et renvoyer des informations système.
À partir du 1er juin, les utilisateurs individuels utilisant le modèle avec les permissions les plus élevées doivent activer la sécurité avancée contre le phishing.
Les partenaires incluent Cisco, Intel, SentinelOne, Snyk, etc.
OpenAI a également publié le plugin Codex Security, intégrant la modélisation des menaces, la détection de vulnérabilités et la vérification des correctifs dans Codex, et offrant aux mainteneurs de projets open source clés des quotas pour Codex et l’API.
OpenAI affirme que cette stratégie en couches guidera le déploiement de modèles plus puissants à l’avenir : le modèle standard sera largement déployé avec des mesures de sécurité générales, tandis que les modèles permissifs dédiés à la sécurité seront toujours déployés de manière limitée.
Le rapport d’évaluation de sécurité de GPT-5.5 classe ses capacités en cybersécurité comme « Élevé », inférieur à « Critique » (qui exige que le modèle puisse développer de manière autonome des attaques zero-day renforcées sur des systèmes réels).

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler