Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Altman accuse Anthropic de « marketing fondé sur la peur » pour le mythe de Claude
Le PDG d’OpenAI, Sam Altman, a accusé le concurrent Anthropic d’utiliser un « marketing fondé sur la peur » pour promouvoir son modèle d’IA Claude Mythos, selon des commentaires formulés dans le podcast Core Memory animé par la journaliste technologique Ashlee Vance. Altman a fait valoir que le discours axé sur la peur vise à justifier le maintien des systèmes d’IA avancés sous le contrôle d’un « groupe plus restreint de personnes », bien qu’il ait reconnu que certaines préoccupations liées à la sécurité sont légitimes.
Critique marketing d’Altman
Altman a déclaré que, s’il existe des inquiétudes valables concernant la sécurité de l’IA, « c’est manifestement un marketing incroyable de dire : “Nous avons construit une bombe. Nous sommes sur le point de la lâcher sur votre tête. Nous allons vous vendre un abri anti-bombes pour $100 million. Vous en avez besoin pour faire tourner tout votre bazar, mais uniquement si nous vous choisissons comme client.” » Il a noté que « ce n’est pas toujours facile » d’équilibrer les nouvelles capacités de l’IA avec la conviction que la technologie devrait être accessible.
Altman a reconnu que « il y aura des préoccupations de sécurité légitimes », mais il a suggéré que des messages fondés sur la peur pourraient être instrumentalisés pour justifier un contrôle centralisé. Il a déclaré : « si ce que vous voulez, c’est du genre “on a besoin du contrôle de l’IA, juste nous, parce qu’on sont les gens dignes de confiance”, je pense que le marketing fondé sur la peur est probablement la manière la plus efficace de justifier ça. »
Capacités de Claude Mythos et distribution
Le modèle Anthropic Claude Mythos a été dévoilé le mois dernier et a suscité un intérêt considérable de la part des chercheurs, des gouvernements et de l’industrie de la cybersécurité. D’après des tests, le modèle peut identifier de manière autonome des vulnérabilités logicielles et exécuter des opérations cyber complexes. Lors des tests, Mythos a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla et a démontré sa capacité à mener des simulations d’attaques cyber à plusieurs étapes.
Anthropic a restreint l’accès au système via Project Glasswing, un programme limité accordant à des entreprises sélectionnées—dont Amazon, Apple et Microsoft—la possibilité de tester ses capacités. La société a également engagé des ressources considérables pour soutenir des efforts de sécurité open-source, en arguant que les défenseurs devraient bénéficier de la technologie avant qu’elle ne devienne plus largement disponible.
Encadrement de la sécurité et réponse du gouvernement
Anthropic a présenté les capacités de Mythos comme une percée défensive—permettant une détection plus rapide des failles critiques—et comme un risque potentiel offensif si elles sont détournées. Le modèle a aussi mis en évidence les limites des systèmes actuels d’évaluation de l’IA, Anthropic reconnaissant que de nombreux benchmarks actuels en cybersécurité ne suffisent plus à mesurer les capacités de son système le plus récent.
Malgré des appels au sein de certaines parties du gouvernement américain pour faire cesser l’utilisation de la technologie en raison de ses applications potentielles dans la guerre et la surveillance, la National Security Agency aurait commencé à tester une version d’aperçu du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, les utilisateurs ont donné une probabilité de 49 % que Claude Mythos soit publié au grand public d’ici le 30 juin.
Un groupe de chercheurs a affirmé la semaine dernière être parvenus à reproduire les résultats de Mythos en utilisant des modèles accessibles publiquement.
Rhétorique plus large autour du déploiement de l’IA
Altman a suggéré que la rhétorique concernant des systèmes d’IA extrêmement dangereux pourrait augmenter à mesure que les capacités s’améliorent, mais il a estimé que toutes ces affirmations ne devraient pas être prises pour argent comptant. Il a déclaré : « Il y aura beaucoup plus de rhétorique au sujet de modèles trop dangereux pour être déployés. Il y aura aussi des modèles très dangereux qui devront être déployés d’une manière ou d’une autre. Je suis sûr que Mythos est un excellent modèle pour la cybersécurité, mais je pense que nous avons un plan dont nous sommes satisfaits pour la façon dont nous allons mettre ce type de capacité dans le monde. »
Altman a aussi écarté les suggestions selon lesquelles OpenAI réduirait ses dépenses d’infrastructure, affirmant que la société continuerait d’étendre sa capacité de calcul. Il a noté : « Je ne sais pas d’où ça vient… les gens veulent vraiment raconter l’histoire du désengagement. Mais très bientôt, ce sera encore, du genre : “OpenAI est tellement imprudent. Comment peuvent-ils dépenser une somme aussi folle ?” »