Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenClaw 2026.4.2 resserre la chaîne de sécurité HTTP des fournisseurs, intégration d'Android avec Google Assistant
Selon la surveillance 1M AI News, la plateforme open source d’agent IA OpenClaw publie la version 2026.4.2. Cette version inclut 2 changements majeurs (breaking changes), environ 15 améliorations de fonctionnalités et plus de 30 correctifs.
Les deux breaking changes poursuivent l’externalisation de l’architecture de plugins lancée le 2026.3.31 : la configuration x_search de xAI et la configuration web_fetch de Firecrawl ont été déplacées du chemin principal vers le chemin propre aux plugins, et l’ancienne configuration peut être migrée automatiquement via la commande openclaw doctor --fix.
Le thème unique le plus dense de cette version concerne la centralisation de la sécurité des liaisons HTTP des fournisseurs, avec 8 correctifs connexes soumis par le contributeur vincentkoc. Auparavant, l’authentification des requêtes, la configuration des proxys, les stratégies TLS et le traitement des en-têtes pour les chemins HTTP partagés, le streaming et WebSocket étaient dispersés dans les adaptations de chaque fournisseur ; désormais, la convergence est totale : la centralisation des stratégies natives/proxy des requêtes vers les points de terminaison compatibles avec GitHub Copilot, Anthropic et OpenAI empêche l’imitation ou la récupération des valeurs par défaut natives ; le routage des requêtes de médias (audio, images, etc.) passe par un chemin HTTP partagé ; les points de terminaison de génération d’images ne déduisent plus les autorisations d’accès à un réseau privé à partir de l’URL base configurée ; la comparaison des clés de webhook multi-canaux utilise désormais une fonction de comparaison à temps constant. Pour les utilisateurs qui hébergent en interne ou intègrent plusieurs fournisseurs tiers, ces changements colmatent une série de failles d’usurpation de requêtes et d’héritage de stratégies.
Côté nouvelles fonctionnalités, l’application Android ajoute l’intégration de Google Assistant : l’utilisateur peut lancer OpenClaw directement depuis l’assistant vocal et envoyer l’invite dans l’interface de conversation. Les valeurs par défaut évoluent : l’exécution du passerelle et des hôtes de nœud utilise désormais security=full et ask=off par défaut, c’est-à-dire une application forcée de la stratégie de sécurité sans confirmation à chaque pop-up. Le système de plugins ajoute un hook before_agent_reply, permettant aux plugins de court-circuiter tout le processus en utilisant une réponse synthétisée avant la réponse du LLM. Task Flow continue d’être amélioré : génération de sous-tâches hébergées et intention d’annulation « collante » ; pour l’orchestrateur externe, il est désormais possible d’arrêter immédiatement la planification et d’attendre que les sous-tâches actives se terminent naturellement.
Autres correctifs : les étiquettes de réflexion internes antml:thinking du modèle Anthropic pouvaient auparavant fuiter dans le texte visible par l’utilisateur ; elles sont désormais filtrées au niveau de la sortie. L’appel d’outil dans Kimi Coding perdait des paramètres en raison de l’incompatibilité des formats entre Anthropic et OpenAI ; une normalisation a été effectuée. Dans MS Teams, lorsque la limite de streaming dépasse 4000 caractères, le contenu déjà transmis n’est plus réémis en double.