Ralentir le développement de l'IA de cybersécurité divulguée d'Anthropic

Les nouvelles concernant une fuite du modèle d’IA d’Anthropic ont secoué l’industrie de la cybersécurité, faisant chuter les actions des grandes entreprises. Ce qui semblait initialement être un potentiel changeur de jeu soulève maintenant des questions urgentes : les organisations peuvent-elles faire confiance à l’IA avec leurs actifs numériques les plus sensibles, ou cet incident renforce-t-il simplement le besoin d’une protection experte ?

Selon Mint, un brouillon de billet de blog divulgué a introduit une nouvelle catégorie de modèles d’IA appelée Capybara. Le brouillon affirmait que Capybara surpassait le modèle phare d’Anthropic, Claude Opus 4.6, dans les domaines de « la programmation logicielle, du raisonnement académique et des tâches liées à la cybersécurité. » Il a également noté que l’entraînement sur Claude Mythos—un modèle qu’Anthropic décrit comme le plus avancé à ce jour—était complété.

Pourquoi a-t-il fui ?

Bien qu’Anthropic ait attribué la fuite à une « erreur humaine », l’explication peut peu rassurer les organisations sur la capacité de l’entreprise à protéger les données sensibles. Certains analystes spéculent qu’il pourrait y avoir eu d’autres motivations en jeu.

« La fuite de Capybara est malheureuse mais je me demande presque si elle n’a pas été intentionnellement laissée dans un lac de données accessible pour souligner certains des risques cybernétiques émergents que les plateformes d’IA en évolution continue posent et poseront », a déclaré Tracy Goldberg, Directrice de la cybersécurité chez Javelin Strategy & Research. « Cela dit, le modèle est encore en phase de test, Anthropic déclarant clairement qu’il est conscient des bogues et des risques qui doivent être traités, c’est pourquoi Anthropic a seulement lancé Capybara en douceur. »

La menace imminente de l’IA

Anthropic a également souligné les risques de cybersécurité associés à ces modèles, en mettant l’accent sur la course aux armements en cours avec l’IA entre les défenseurs et les cybercriminels. L’entreprise a averti que Capybara pourrait être le premier d’une série de modèles capables d’identifier et d’exploiter des vulnérabilités beaucoup plus rapidement que les équipes de sécurité ne peuvent répondre. En d’autres termes, les criminels pourraient tirer parti du modèle pour alimenter une nouvelle génération de menaces de cybersécurité alimentées par l’IA.

Les investisseurs ont réagi rapidement, faisant chuter les actions de CrowdStrike, Datadog et Zscaler de plus de 10 % lors des premiers échanges.

« La chute des actions technologiques à la suite des nouvelles concernant la fuite de Capybara souligne vraiment le manque de compréhension que les investisseurs ont de l’IA en général », a déclaré Goldberg. « Nous savons que ces modèles continueront à s’adapter, et le feront à un rythme plus rapide que les mesures de sécurité de l’industrie ne peuvent répondre. C’est pourquoi la gouvernance autour de l’IA est si critique. »

0

                    ACTIONS

0

                VUES
            

            

            

                Partager sur FacebookPartager sur TwitterPartager sur LinkedIn

Tags : AIAnthropicCrowdStrikeCybersécuritéMint

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler