L'avis de Mollick : après l'obtention de l'AGI, les laboratoires de pointe pourraient d'abord le garder secret pour faire de l'arbitrage financier

robot
Création du résumé en cours

Titre

Ethan Mollick : Si vous avez déjà une AGI, pourquoi la dire aux autres ?

Résumé

Le professeur de la Wharton School Ethan Mollick a déclaré sur X un constat qui met mal à l’aise : lorsqu’un laboratoire met au point une AGI dépassant l’être humain, le moyen le plus rapide et le plus sûr de gagner de l’argent n’est pas de lancer une API pour que tout le monde s’en serve, mais de l’utiliser d’abord pour faire du trading sur les marchés financiers — tant que les concurrents n’ont pas encore réagi, il faut d’abord encaisser les gains excédentaires.

En suivant cette logique, les vraies percées technologiques sont plus susceptibles d’être dissimulées que d’être annoncées immédiatement.

Cela entre en conflit avec les hypothèses des discussions dominantes sur la gouvernance de l’IA. Tout le monde part généralement du principe que « au moment décisif, nous le saurons ». Mais selon Mollick : il est possible que nous ne le sachions même pas.

Analyse

  • Qui est Mollick : professeur associé à la Wharton School, responsable de Generative AI Labs ; en 2024, il a publié un best-seller intitulé 《Co-Intelligence》 ; sa chronique Substack « One Useful Thing » compte plus de 419 000 abonnés ; TIME le classe parmi les personnalités influentes de l’IA en 2024. Son analyse des mécanismes d’incitation dans l’industrie a un poids suffisant pour être prise au sérieux.
  • Des inquiétudes similaires existent ailleurs :
    • AI Policy Bulletin (2025-2026) a mis en garde contre « la dissimulation de l’entraînement de l’AGI » : pour éviter la réglementation ou prendre de l’avance, les laboratoires peuvent réduire les divulgations externes ; s’il y a un problème, il n’y a pas de supervision publique.
    • La recherche de JPMorgan (2025) sur l’AGI et la finance soutient aussi cette prémisse : s’il existe un système qui dépasse l’être humain de manière complète dans les tâches cognitives, l’utiliser pour le trading quantitatif et la découverte de stratégies rapporterait un gain extrêmement séduisant.
    • L’étude d’Anthropic sur « les comportements indésirables des systèmes d’agents dans les scénarios d’entreprise » suggère également : « gagner un petit quelque chose d’abord en se cachant » n’est pas une lubie, mais une réponse rationnelle aux mécanismes d’incitation.

Deux voies à choisir : API publique vs. trading discret

Dimension API publique Trading discret
Vitesse de gains Moyenne : il faut faire un produit, construire un écosystème, mettre en place de la facturation Rapide : investir directement dans plusieurs marchés et diverses stratégies
Plafond des bénéfices Facile à copier par les adversaires, à faire entrer dans la course aux prix En phase d’asymétrie d’information, on peut gagner des gains excédentaires
Pression réglementaire et médiatique Élevée : il faut communiquer, il faut être conforme Faible : les systèmes et stratégies internes peuvent fonctionner en vase clos
Contrôle des risques Les utilisateurs externes entraînent des comportements incontrôlables et une responsabilité Expérimentation en interne fermée, périmètre de gestion des risques contrôlable
Valeur stratégique Renforcement de la marque et du statut dans l’écosystème Avantage de première arrivée pour le capital et les données

Conclusion : si l’objectif est de gagner l’argent le plus rapidement et le plus sûrement possible, la motivation de cacher l’AGI pour arbitrer d’abord sur les marchés financiers est plus forte.

Que signifie cela pour la gouvernance

  • L’hypothèse peut être erronée : la plupart des cadres de gouvernance partent du principe que « la percée est observable », mais le scénario de Mollick montre que « une percée non observable » correspond davantage à la logique d’incitation.
  • La réglementation ne voit pas : même s’il existe des exigences de divulgation sur l’IA, tant qu’il n’y a pas d’audit indépendant obligatoire et de surveillance continue, les laboratoires ont tout à fait la marge pour construire une « zone tampon d’information » entre leurs capacités techniques et leur conformité.
  • Comment le marché réagirait : si quelqu’un utilise vraiment l’AGI en secret pour trader, les signaux de prix seront d’abord intégrés par un petit nombre de personnes, puis seulement transmis au marché public sous forme de fluctuations anormales et de bruit.

Évaluation de l’impact

  • Importance : élevée
  • Catégorie : sécurité de l’IA, impact sur le marché, recherche en IA

Jugement : pour les traders ordinaires, cette nouvelle est peut-être déjà arrivée trop tard ; les véritables bénéficiaires sont les laboratoires qui auront maîtrisé le système en premier, ainsi que les entités privées disposant de données et de capacités de stratégie, et les fonds spéculatifs. Pour les régulateurs et ceux qui construisent l’infrastructure, s’il est possible de préparer tôt une « chaîne d’outils d’audit obligatoire + de surveillance des comportements », il y a encore une chance. Dans l’ensemble, l’avantage penche clairement du côté des acteurs qui « ont l’intelligence entre les mains et peuvent exécuter en circuit fermé ».

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler