Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic lance un modèle d'IA de sécurité de premier plan, actuellement réservé aux géants de la technologie, les actions de cybersécurité en hausse générale
Anthropic confie à des géants de la technologie des tests pour un modèle d’IA non divulgué, plus puissant, afin de faire face aux menaces de cybersécurité que pourraient entraîner des systèmes d’IA avancés ; cette initiative suscite une réaction immédiate sur le marché, et le secteur de la cybersécurité s’apprécie.
Le mardi 7 avril, Anthropic a annoncé la création d’un projet sectoriel conjoint intitulé “Project Glasswing” ; des entreprises comme Amazon, Apple, Microsoft, Cisco, etc., auront accès à son nouveau modèle non divulgué Mythos, afin d’identifier les vulnérabilités de leurs propres produits et de partager les découvertes avec leurs pairs du secteur.
Craignant que des pirates exploitent ce modèle pour mener des attaques informatiques, Anthropic a indiqué qu’à ce stade, il n’existe aucun projet de publication de Mythos au public, et que des garde-fous de sécurité seront élaborés pour cette technologie sur la base des retours de Project Glasswing.
Porté par cette nouvelle, l’ensemble des actions mondiales de cybersécurité a progressé mardi. Le fonds ETF Global X sur la cybersécurité a gagné 0,9 %, établissant un sixième jour de cotation consécutif en hausse.
Palo Alto Networks a progressé de 4,9 %, CrowdStrike de 6,2 %, Zscaler de 1,8 % et Fortinet de 1,7 %. Les analystes estiment que l’initiative d’Anthropic a clairement validé l’effet d’entraînement de la technologie IA sur la demande de logiciels de cybersécurité.
Glasswing : le projet pour permettre aux défenseurs d’avoir une longueur d’avance
Le raisonnement central de Project Glasswing consiste à identifier et à corriger en amont d’éventuelles failles de cybersécurité, avant une diffusion plus large de modèles d’IA puissants. Les entreprises participantes utiliseront le modèle Mythos pour rechercher activement les défauts de leurs propres produits, et partageront les résultats de leurs travaux en interne au sein de l’industrie.
Newton Cheng, en charge de la cybersécurité de type red team à la pointe chez Anthropic, a déclaré :
L’analyse estime que cela reflète en réalité les inquiétudes croissantes du secteur technologique. À mesure que les capacités des modèles d’IA continuent de progresser, des criminels et des hackers pourraient utiliser ce type d’outils pour scanner des failles dans le code source, puis contourner la défense du réseau.
Son concurrent OpenAI, dans le passé, a également souligné la croissance des capacités réseau de ses modèles, et a lancé des projets pilotes visant à « remettre en priorité les outils entre les mains des défenseurs ».
Anthropic indique avoir échangé avec des responsables du gouvernement américain au sujet des capacités liées à la sécurité de Mythos, mais refuse de divulguer précisément quelles institutions sont concernées.
Newton Cheng a souligné que les travaux actuels de l’entreprise ont déjà été menés en coopération avec le Cybersecurity and Infrastructure Security Agency (CISA) américain et le National Institute of Standards and Technology (NIST).
Analyste : l’environnement de menace de l’industrie arrive à un tournant
Les analystes de Wall Street interprètent largement cette initiative d’Anthropic comme un signal positif pour le secteur de la cybersécurité, estimant que cet événement redéfinit la relation entre les entreprises d’IA et les éditeurs de sécurité.
Jefferies Financial Group estime qu’en ce qui concerne Palo Alto Networks et CrowdStrike, cette nouvelle constitue un signal clair de “coopération plutôt que concurrence”, et montre que “l’environnement de menaces est en train d’entrer dans une phase charnière”, en considérant que ces deux grands acteurs de type plateforme “disposent d’un potentiel de gains excédentaires solide à l’ère émergente de l’IA”.
La société de services financiers Stephens, pour sa part, a déclaré que la nouvelle “confirme la gravité que présentent des modèles d’IA plus puissants au niveau de la cybersécurité, et la nécessité pour les éditeurs de cybersécurité et les fournisseurs de logiciels d’entreprises clés de collaborer et de se défendre ensemble contre des menaces complexes”.
Stephens prévoit que les entreprises compteront de plus en plus sur des prestataires de services de cybersécurité dignes de confiance pour protéger des environnements hétérogènes d’IA devenus de plus en plus complexes.
La société de gestion de patrimoine privée Bernstein, de son côté, a souligné un autre angle : “Anthropic attache manifestement une grande importance au problème de la sécurité du code et du fait que ses modèles puissent être utilisés à des fins malveillantes”, et estime que cela “ne constitue pas fondamentalement un obstacle pour les éditeurs de cybersécurité, et pourrait même créer un vent favorable”.
Avertissement sur les risques et clause de non-responsabilité