Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Ralentir le développement de l'IA de cybersécurité divulguée d'Anthropic
Les nouvelles concernant la fuite d’un modèle d’IA d’Anthropic ont secoué l’industrie de la cybersécurité, faisant chuter fortement les actions de grandes entreprises. Ce qui semblait au départ être une potentielle révolution soulève désormais des questions urgentes : les organisations peuvent-elles faire confiance à l’IA pour leurs actifs numériques les plus sensibles, ou cet incident ne fait-il que renforcer la nécessité d’une protection par des experts ?
D’après Mint, un projet d’article de blog divulgué a introduit un nouveau palier de modèles d’IA appelé Capybara. Le projet affirmait que Capybara surpassait le modèle phare d’Anthropic, Claude Opus 4.6, dans le « codage logiciel, le raisonnement académique et des tâches liées à la cybersécurité ». Il indiquait en outre que l’entraînement sur Claude Mythos — un modèle qu’Anthropic décrit comme leur modèle le plus avancé — est désormais achevé.
Pourquoi cela a été divulgué ?
Alors qu’Anthropic attribuait la fuite à « une erreur humaine », l’explication risque de ne pas grand-chose pour rassurer les organisations quant à la capacité de l’entreprise à protéger des données sensibles. Certains analystes supposent qu’il pourrait y avoir eu d’autres motivations en arrière-plan.
« La fuite de Capybara est regrettable, mais je me demande presque si elle n’a pas été laissée volontairement dans un data lake accessible pour mettre en évidence certains des risques cyberémergents que posent — et que poseront — en permanence des plateformes d’IA en évolution », a déclaré Tracy Goldberg, directrice de la cybersécurité chez Javelin Strategy & Research. « Cela dit, le modèle est encore en phase de test, et Anthropic indique clairement qu’il est conscient des bugs et des risques qui doivent être corrigés, c’est pourquoi Anthropic n’a fait qu’un lancement “soft” de Capybara. »
La menace imminente de l’IA
Anthropic a également mis en avant les risques de cybersécurité liés à ces modèles, soulignant la course aux armements qui se déroule avec l’IA entre les défenseurs et les cybercriminels. La société a averti que Capybara pourrait être le premier d’une série de modèles capables d’identifier et d’exploiter des vulnérabilités bien plus rapidement que les équipes de sécurité ne peuvent réagir. En d’autres termes, les criminels pourraient exploiter le modèle pour alimenter une nouvelle génération de menaces de cybersécurité pilotées par l’IA.
Les investisseurs ont réagi rapidement, faisant baisser les actions de CrowdStrike, Datadog et Zscaler de plus de 10 % dès les premières transactions.
« La chute des valeurs technologiques à la suite de la nouvelle concernant la fuite de Capybara montre surtout le manque de compréhension des investisseurs sur l’IA dans son ensemble », a déclaré Goldberg. « Nous savons que ces modèles continueront à s’adapter, et à le faire à un rythme plus rapide que ne peuvent répondre les mesures de sécurité du secteur. C’est pourquoi la gouvernance autour de l’IA est si critique. »
0
0
Tags : AIAnthropicCrowdStrikeCybersecurityMint