Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Ne touchez pas à mon portefeuille : une étude d'Apple montre que les utilisateurs détestent l'IA qui se montre trop intelligente
IT之家 13 février : l’équipe de recherche en apprentissage automatique d’Apple a publié le 7 février un article intitulé « Cartographier l’espace de conception de l’expérience utilisateur pour les agents d’utilisation informatique », se concentrant sur la révélation des attentes réelles des utilisateurs et de leurs préférences d’interaction avec les intelligences artificielles.
Les chercheurs soulignent que, malgré les investissements importants du marché dans le développement d’agents intelligents, l’exploration des formes d’interface et de la logique d’interaction reste insuffisante. Pour y remédier, l’équipe a analysé des produits existants et mené des tests utilisateurs sur le terrain, dans le but de clarifier les normes de conception dans ce domaine émergent.
Lors de la première phase de l’étude, selon une introduction dans un blog relayé par IT之家, l’équipe a analysé en profondeur neuf agents d’intelligence artificielle principalement utilisés sur desktop et mobile, notamment Claude Computer Use, OpenAI Operator et AutoGLM.
En consultant huit professionnels expérimentés, les chercheurs ont construit un système de classification basé sur quatre dimensions : « instructions utilisateur », « explicabilité des activités », « contrôle utilisateur » et « modèles mentaux ». Ce cadre couvre tout le processus, depuis la manière dont l’utilisateur donne ses commandes jusqu’à la façon dont l’IA présente ses plans d’action, signale des erreurs et transfère le contrôle.
La deuxième phase de l’étude a utilisé la méthode classique du « Wizard of Oz » (littéralement « Magicien d’Oz »). L’équipe a recruté 20 utilisateurs expérimentés dans l’utilisation d’IA, leur demandant d’accomplir des tâches de location de vacances ou d’achat en ligne via une interface de chat.
Afin d’éliminer les interférences dues à des défaillances techniques, et de capturer au plus près les réactions psychologiques et comportements réels face aux décisions de l’IA, Apple a simulé des opérations d’IA en personne (incluant des erreurs intentionnelles ou des boucles infinies). Les utilisateurs ignoraient que derrière l’écran se trouvait un chercheur dans une pièce voisine, et non une véritable IA.
Les résultats montrent que les utilisateurs ont des besoins subtils en matière de « transparence » : ils souhaitent connaître les intentions de l’IA, mais refusent une gestion microscopique de chaque étape, car cela ferait perdre tout sens à l’utilisation de l’agent intelligent.
Ce besoin varie selon le contexte : dans des tâches exploratoires ou peu familières, les utilisateurs désirent voir davantage d’étapes intermédiaires et d’explications ; dans des scénarios à haut risque (paiement, modification d’informations de compte), ils exigent un contrôle absolu et une confirmation définitive.
L’étude conclut que la confiance est la pierre angulaire de l’interaction homme-machine, mais qu’elle est extrêmement fragile. Lorsqu’un agent intelligent rencontre une option floue sans demander de clarification (supposition silencieuse), ou s’écarte du plan initial sans en informer l’utilisateur, la confiance peut rapidement s’effondrer.
Après une situation d’incertitude, les utilisateurs ne souhaitent pas que l’IA fasse des choix aléatoires dans une optique d’automatisation, mais préfèrent que l’IA se mette en pause et demande des clarifications, surtout lorsque ces choix pourraient entraîner des erreurs d’achat ou d’autres pertes concrètes.
IT之家 ajoute l’adresse de référence
Site officiel d’Apple : Mapping the Design Space of User Experience for Computer Use Agents
Arxiv : Mapping the Design Space of User Experience for Computer Use Agents