Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Ralentir le développement de l'IA de cybersécurité divulguée d'Anthropic
Les nouvelles concernant une fuite du modèle d’IA d’Anthropic ont secoué l’industrie de la cybersécurité, faisant chuter les actions des grandes entreprises. Ce qui semblait initialement être un potentiel changeur de jeu soulève maintenant des questions urgentes : les organisations peuvent-elles faire confiance à l’IA avec leurs actifs numériques les plus sensibles, ou cet incident renforce-t-il simplement le besoin d’une protection experte ?
Selon Mint, un brouillon de billet de blog divulgué a introduit une nouvelle catégorie de modèles d’IA appelée Capybara. Le brouillon affirmait que Capybara surpassait le modèle phare d’Anthropic, Claude Opus 4.6, dans les domaines de « la programmation logicielle, du raisonnement académique et des tâches liées à la cybersécurité. » Il a également noté que l’entraînement sur Claude Mythos—un modèle qu’Anthropic décrit comme le plus avancé à ce jour—était complété.
Pourquoi a-t-il fui ?
Bien qu’Anthropic ait attribué la fuite à une « erreur humaine », l’explication peut peu rassurer les organisations sur la capacité de l’entreprise à protéger les données sensibles. Certains analystes spéculent qu’il pourrait y avoir eu d’autres motivations en jeu.
« La fuite de Capybara est malheureuse mais je me demande presque si elle n’a pas été intentionnellement laissée dans un lac de données accessible pour souligner certains des risques cybernétiques émergents que les plateformes d’IA en évolution continue posent et poseront », a déclaré Tracy Goldberg, Directrice de la cybersécurité chez Javelin Strategy & Research. « Cela dit, le modèle est encore en phase de test, Anthropic déclarant clairement qu’il est conscient des bogues et des risques qui doivent être traités, c’est pourquoi Anthropic a seulement lancé Capybara en douceur. »
La menace imminente de l’IA
Anthropic a également souligné les risques de cybersécurité associés à ces modèles, en mettant l’accent sur la course aux armements en cours avec l’IA entre les défenseurs et les cybercriminels. L’entreprise a averti que Capybara pourrait être le premier d’une série de modèles capables d’identifier et d’exploiter des vulnérabilités beaucoup plus rapidement que les équipes de sécurité ne peuvent répondre. En d’autres termes, les criminels pourraient tirer parti du modèle pour alimenter une nouvelle génération de menaces de cybersécurité alimentées par l’IA.
Les investisseurs ont réagi rapidement, faisant chuter les actions de CrowdStrike, Datadog et Zscaler de plus de 10 % lors des premiers échanges.
« La chute des actions technologiques à la suite des nouvelles concernant la fuite de Capybara souligne vraiment le manque de compréhension que les investisseurs ont de l’IA en général », a déclaré Goldberg. « Nous savons que ces modèles continueront à s’adapter, et le feront à un rythme plus rapide que les mesures de sécurité de l’industrie ne peuvent répondre. C’est pourquoi la gouvernance autour de l’IA est si critique. »
0
0
Tags : AIAnthropicCrowdStrikeCybersécuritéMint