Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Cette note de Stanford et Harvard explique pourquoi la plupart des systèmes d’« intelligence artificielle agent » suscitent d’abord de l’admiration dans les présentations, puis se dégradent complètement une fois utilisés dans le monde réel.
Son nom est « تكييف الذكاء الاصطناعي الوكيل » et c’est la note la plus importante que j’ai lue cette année.
À l’heure actuelle, tout le monde est obsédé par la construction d’agents autonomes. Nous leur donnons des outils, de la mémoire et un objectif, et nous nous attendons à ce qu’ils accomplissent nos tâches.
Mais lorsqu’on les déploie dans le monde réel, ils se mettent à imaginer des appels d’outils. Ils échouent à planifier à long terme. Ils se bloquent.
Voici la raison :
Nous essayons de comprimer toute l’apprentissage dans le cerveau de l’intelligence artificielle.
Quand les développeurs tentent de réparer un agent en panne, ils ne font généralement que régler le modèle principal pour produire de meilleures réponses finales.
Les chercheurs ont découvert un défaut fatal dans cette approche.
Si vous récompensez uniquement l’intelligence artificielle pour obtenir la bonne réponse finale, elle devient paresseuse.
Elle apprend littéralement à arrêter d’utiliser ses outils. Elle essaie de deviner la réponse au lieu de faire le travail. Elle ignore la calculatrice et essaie d’effectuer le calcul dans sa tête.
Pour y remédier, les chercheurs ont mis au point un nouveau cadre en 4 parties pour apprendre réellement aux agents comment apprendre.
Et la conclusion la plus importante renverse complètement la compréhension actuelle.
Au lieu de réentraîner en permanence le cerveau massif et coûteux de l’agent, les systèmes les plus fiables font l’inverse.
Ils figent le cerveau. Et ils adaptent les outils.
Ils l’appellent adaptation des outils sous la supervision de l'agent.#GateSquareAprilPostingChallenge $BTC