Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google propose une méthode d’évaluation continue de l’ingénierie pour relever les défis d’évaluation en environnement de production des agents IA
Nouvelles ME : le 4 avril (UTC+8). Récemment, GoogleCloudTech a publié un article indiquant qu’il n’est pas fiable d’évaluer des agents IA en production en s’appuyant sur des discussions manuelles et des impressions subjectives (c’est-à-dire les « vérifications d’ambiance »), et que cela peut conduire à une catastrophe. Selon cet article, la nature probabiliste de l’IA générative fait que de minuscules changements dans les invites ou dans les poids du modèle peuvent entraîner une dégradation significative des performances. Pour résoudre ce problème, l’article propose une approche d’ingénierie consistant à appliquer l’évaluation continue (CE). Cette méthode distingue deux modes pour l’ingénierie de l’IA : le mode d’exploration (en laboratoire) et le mode de défense (en usine). Le mode d’exploration se concentre sur la recherche du potentiel du modèle au moyen d’un petit nombre d’exemples et de vérifications d’ambiance ; le mode de défense, quant à lui, met l’accent sur la stabilité, en s’appuyant sur des évaluations basées sur des ensembles de données, un filtrage strict et des indicateurs automatisés pour s’assurer que le système répond aux objectifs de niveau de service (SLO). L’article avertit que de nombreuses équipes restent longtemps en mode d’exploration. L’article donne aussi l’exemple d’un système distribué de multi-agents (le « système du créateur de cours ») construit sur Cloud Run et le protocole Agent2Agent, pour montrer comment appliquer le mode de défense pour des déploiements IA de qualité production, fiables et extensibles, en s’appuyant sur les principes de séparation des préoccupations et des agents spécialisés (tels que le chercheur, le juge, le constructeur de contenu, le coordinateur). (Source : InFoQ)