OpenAI cette fois organise une chasse aux bugs de biosécurité pour GPT-5.5, principalement en demandant à l'équipe rouge de trouver des astuces de jailbreak universelles capables de contourner la protection. Pour des sujets comme $OP liés à l'IA, le message reste plutôt positif, et la ligne de sécurité et de biosécurité continuera d'être surveillée. La récompense n'est que de 25 000 dollars, mais ce qui a vraiment de la valeur, c'est que cette action remet la question de la sécurité au premier plan.

OP4,22%
ENA-1,35%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler