Ralentir le développement de l'IA de cybersécurité divulguée d'Anthropic

Les nouvelles concernant la fuite d’un modèle d’IA d’Anthropic ont secoué l’industrie de la cybersécurité, faisant chuter fortement les actions de grandes entreprises. Ce qui semblait au départ être une potentielle révolution soulève désormais des questions urgentes : les organisations peuvent-elles faire confiance à l’IA pour leurs actifs numériques les plus sensibles, ou cet incident ne fait-il que renforcer la nécessité d’une protection par des experts ?

D’après Mint, un projet d’article de blog divulgué a introduit un nouveau palier de modèles d’IA appelé Capybara. Le projet affirmait que Capybara surpassait le modèle phare d’Anthropic, Claude Opus 4.6, dans le « codage logiciel, le raisonnement académique et des tâches liées à la cybersécurité ». Il indiquait en outre que l’entraînement sur Claude Mythos — un modèle qu’Anthropic décrit comme leur modèle le plus avancé — est désormais achevé.

Pourquoi cela a été divulgué ?

Alors qu’Anthropic attribuait la fuite à « une erreur humaine », l’explication risque de ne pas grand-chose pour rassurer les organisations quant à la capacité de l’entreprise à protéger des données sensibles. Certains analystes supposent qu’il pourrait y avoir eu d’autres motivations en arrière-plan.

« La fuite de Capybara est regrettable, mais je me demande presque si elle n’a pas été laissée volontairement dans un data lake accessible pour mettre en évidence certains des risques cyberémergents que posent — et que poseront — en permanence des plateformes d’IA en évolution », a déclaré Tracy Goldberg, directrice de la cybersécurité chez Javelin Strategy & Research. « Cela dit, le modèle est encore en phase de test, et Anthropic indique clairement qu’il est conscient des bugs et des risques qui doivent être corrigés, c’est pourquoi Anthropic n’a fait qu’un lancement “soft” de Capybara. »

La menace imminente de l’IA

Anthropic a également mis en avant les risques de cybersécurité liés à ces modèles, soulignant la course aux armements qui se déroule avec l’IA entre les défenseurs et les cybercriminels. La société a averti que Capybara pourrait être le premier d’une série de modèles capables d’identifier et d’exploiter des vulnérabilités bien plus rapidement que les équipes de sécurité ne peuvent réagir. En d’autres termes, les criminels pourraient exploiter le modèle pour alimenter une nouvelle génération de menaces de cybersécurité pilotées par l’IA.

Les investisseurs ont réagi rapidement, faisant baisser les actions de CrowdStrike, Datadog et Zscaler de plus de 10 % dès les premières transactions.

« La chute des valeurs technologiques à la suite de la nouvelle concernant la fuite de Capybara montre surtout le manque de compréhension des investisseurs sur l’IA dans son ensemble », a déclaré Goldberg. « Nous savons que ces modèles continueront à s’adapter, et à le faire à un rythme plus rapide que ne peuvent répondre les mesures de sécurité du secteur. C’est pourquoi la gouvernance autour de l’IA est si critique. »

0

                    PARTS

0

                VUES
            

            

            

                Partager sur FacebookPartager sur TwitterPartager sur LinkedIn

Tags : AIAnthropicCrowdStrikeCybersecurityMint

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler