Anthropic lance un modèle d'IA de sécurité de premier plan, actuellement réservé aux géants de la technologie, les actions de cybersécurité en hausse générale

robot
Création du résumé en cours

Anthropic confie à des géants de la technologie des tests pour un modèle d’IA non divulgué, plus puissant, afin de faire face aux menaces de cybersécurité que pourraient entraîner des systèmes d’IA avancés ; cette initiative suscite une réaction immédiate sur le marché, et le secteur de la cybersécurité s’apprécie.

Le mardi 7 avril, Anthropic a annoncé la création d’un projet sectoriel conjoint intitulé “Project Glasswing” ; des entreprises comme Amazon, Apple, Microsoft, Cisco, etc., auront accès à son nouveau modèle non divulgué Mythos, afin d’identifier les vulnérabilités de leurs propres produits et de partager les découvertes avec leurs pairs du secteur.

Craignant que des pirates exploitent ce modèle pour mener des attaques informatiques, Anthropic a indiqué qu’à ce stade, il n’existe aucun projet de publication de Mythos au public, et que des garde-fous de sécurité seront élaborés pour cette technologie sur la base des retours de Project Glasswing.

Porté par cette nouvelle, l’ensemble des actions mondiales de cybersécurité a progressé mardi. Le fonds ETF Global X sur la cybersécurité a gagné 0,9 %, établissant un sixième jour de cotation consécutif en hausse.

Palo Alto Networks a progressé de 4,9 %, CrowdStrike de 6,2 %, Zscaler de 1,8 % et Fortinet de 1,7 %. Les analystes estiment que l’initiative d’Anthropic a clairement validé l’effet d’entraînement de la technologie IA sur la demande de logiciels de cybersécurité.

Glasswing : le projet pour permettre aux défenseurs d’avoir une longueur d’avance

Le raisonnement central de Project Glasswing consiste à identifier et à corriger en amont d’éventuelles failles de cybersécurité, avant une diffusion plus large de modèles d’IA puissants. Les entreprises participantes utiliseront le modèle Mythos pour rechercher activement les défauts de leurs propres produits, et partageront les résultats de leurs travaux en interne au sein de l’industrie.

Newton Cheng, en charge de la cybersécurité de type red team à la pointe chez Anthropic, a déclaré :

Nous pensons que ce n’est pas seulement un problème d’Anthropic ; c’est un problème sectoriel, et que les entreprises privées comme les gouvernements doivent y faire face. Ce que nous faisons via Glasswing, c’est donner aux défenseurs un avantage dès le départ.

L’analyse estime que cela reflète en réalité les inquiétudes croissantes du secteur technologique. À mesure que les capacités des modèles d’IA continuent de progresser, des criminels et des hackers pourraient utiliser ce type d’outils pour scanner des failles dans le code source, puis contourner la défense du réseau.

Son concurrent OpenAI, dans le passé, a également souligné la croissance des capacités réseau de ses modèles, et a lancé des projets pilotes visant à « remettre en priorité les outils entre les mains des défenseurs ».

Anthropic indique avoir échangé avec des responsables du gouvernement américain au sujet des capacités liées à la sécurité de Mythos, mais refuse de divulguer précisément quelles institutions sont concernées.

Newton Cheng a souligné que les travaux actuels de l’entreprise ont déjà été menés en coopération avec le Cybersecurity and Infrastructure Security Agency (CISA) américain et le National Institute of Standards and Technology (NIST).

Analyste : l’environnement de menace de l’industrie arrive à un tournant

Les analystes de Wall Street interprètent largement cette initiative d’Anthropic comme un signal positif pour le secteur de la cybersécurité, estimant que cet événement redéfinit la relation entre les entreprises d’IA et les éditeurs de sécurité.

Jefferies Financial Group estime qu’en ce qui concerne Palo Alto Networks et CrowdStrike, cette nouvelle constitue un signal clair de “coopération plutôt que concurrence”, et montre que “l’environnement de menaces est en train d’entrer dans une phase charnière”, en considérant que ces deux grands acteurs de type plateforme “disposent d’un potentiel de gains excédentaires solide à l’ère émergente de l’IA”.

La société de services financiers Stephens, pour sa part, a déclaré que la nouvelle “confirme la gravité que présentent des modèles d’IA plus puissants au niveau de la cybersécurité, et la nécessité pour les éditeurs de cybersécurité et les fournisseurs de logiciels d’entreprises clés de collaborer et de se défendre ensemble contre des menaces complexes”.

Stephens prévoit que les entreprises compteront de plus en plus sur des prestataires de services de cybersécurité dignes de confiance pour protéger des environnements hétérogènes d’IA devenus de plus en plus complexes.

La société de gestion de patrimoine privée Bernstein, de son côté, a souligné un autre angle : “Anthropic attache manifestement une grande importance au problème de la sécurité du code et du fait que ses modèles puissent être utilisés à des fins malveillantes”, et estime que cela “ne constitue pas fondamentalement un obstacle pour les éditeurs de cybersécurité, et pourrait même créer un vent favorable”.

Avertissement sur les risques et clause de non-responsabilité

        Le marché comporte des risques ; il faut investir avec prudence. Le présent article ne constitue pas un conseil en investissement personnel et ne tient pas compte des objectifs d’investissement particuliers, de la situation financière ou des besoins spécifiques de certains utilisateurs. Les utilisateurs doivent évaluer si l’une des opinions, perspectives ou conclusions contenues dans cet article correspond à leur situation particulière. En investissant sur cette base, la responsabilité incombe à l’investisseur.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler