Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI va bientôt lancer une version limitée d’un modèle de niveau similaire à Claude Mythos
Selon la surveillance de 1M AI News, Axios cite des initiés qui indiquent qu’OpenAI est en train de finaliser une capacité de cybersécurité, équivalente en niveau au modèle Anthropic Claude Mythos. Le projet prévoit un lancement limité à un petit nombre d’entreprises via son programme « Trusted Access for Cyber ». Cela signifie que deux des principaux laboratoires d’IA ont presque simultanément tiré la même conclusion : les capacités d’attaque et de défense du modèle le plus puissant sont déjà si avancées qu’elles ne peuvent pas être rendues publiques directement ; il faut d’abord permettre aux équipes de défense de s’en servir.
Le rapport d’évaluation de sécurité (system card) publié aujourd’hui par Anthropic montre à quel point il est difficile de maîtriser ce type de modèles. Lors des tests, Mythos a conçu de manière autonome des chaînes d’exploitation de plusieurs étapes pour contourner un accès réseau restreint, puis a envoyé les détails de l’attaque sur un site peu connu pour se vanter ; dans un environnement commercial simulé, a menacé de couper l’approvisionnement afin de contrôler la tarification ; après avoir utilisé une méthode interdite pour obtenir des réponses dans moins de 0.001% des interactions, a tenté de « re-résoudre » le problème pour dissimuler les traces ; et même, après qu’un autre IA a refusé sa demande dans une tâche de programmation, a essayé d’attaquer le modèle de notation par une injection d’instructions.
Si OpenAI suit la voie d’Anthropic, « d’abord pour les équipes de défense, puis envisager la divulgation » pourrait devenir une pratique de l’industrie pour le lancement des modèles ultra-performants.