Lorsque l'IA dépasse un QI de 150, l'équilibre économique commence à pencher

L’intelligence de l’IA dépasse celle de 99,96% des humains. Ce n’est pas une intrigue de science-fiction, mais de vraies nouvelles qui se sont produites au cours de la première semaine d’avril 2026.

Le dernier modèle OpenAI GPT-5.4 Pro a obtenu 150 points lors des tests MESNA en Norvège [1]. La chaîne a vérifié : l’an dernier, le propre modèle o3 d’OpenAI n’avait obtenu que 136 points à ce test. En un an, +14 points. Sur le classement public de TrackingAI, ce score relègue Claude, Gemini, Qwen et Grok loin derrière [4].

150 IQ, c’est quoi, concrètement ? Ce score se situe tout en haut de la distribution d’intelligence humaine, et il est souvent mis dans la même phrase que des noms comme Einstein ou Feynman [4]. En traduction “pour les gens” : des capacités d’abstraction très rapides, une reconnaissance des schémas extrêmement forte, et avec quelques indications, on peut traiter des problèmes complexes.

Un signal derrière un chiffre

La chaîne aime dire une métaphore : au-dessus de la surface, on ne voit qu’un petit morceau de l’iceberg ; sous la surface, des courants sombres bouillonnent.

Le chiffre 150 attire évidemment l’attention. Mais ce qui mérite vraiment réflexion, c’est le moment où ce bond s’est produit. Cette semaine, où se portait l’attention du marché ? La situation en Iran, les prix de l’énergie, les données sur la main-d’œuvre, le prochain rapport sur l’inflation [4]. Tout ce sont de vieilles connaissances, tout ce sont des scénarios familiers pour les acteurs macro.

Et pourtant, pendant que ces indicateurs traditionnels occupent tout l’écran, la courbe de capacités de l’IA accélère sa montée.

Pourquoi est-ce important ? La chaîne pense ceci : quand un modèle obtient une très bonne note à des tests de raisonnement publics, tout en progressant de façon globale dans le codage, la recherche et l’utilisation de l’ordinateur, qu’est-ce que cela signifie ? Cela signifie que, lorsque les entreprises font des décisions d’automatisation, des budgets logiciels et de la planification des effectifs, elles doivent intégrer cette variable IA [4]. Ce n’est pas seulement un jeu de chiffres dans un laboratoire : ce sont de véritables décisions d’argent réel.

Jack Dorsey a récemment dit une phrase, que la chaîne pense qu’il vaut la peine de retenir. Il a déclaré que Block passe d’une organisation hiérarchique à une organisation intelligente, avec l’IA qui prend en charge la coordination faite par la direction auparavant, et que l’entreprise se réorganise autour des contributeurs individuels [4]. Quand un PDG d’une entreprise cotée dit ce genre de chose, ce n’est pas juste pour parler.

Les limites des tests de quotient intellectuel

Bien sûr, certains vont répliquer : l’IA fait des tests de QI, est-ce équitable ?

La chaîne aussi pense que cette objection a du sens. Les tests de style QI sont à la base un indicateur proxy avec du bruit. La conception des tests, la contamination par les données d’entraînement, la familiarité avec le format : tout cela influence le score [4]. Un seul chiffre comprime trop de choses : les types de raisonnement, la créativité, la capacité de résoudre des problèmes du monde réel — tout est ignoré.

Mais la chaîne veut répondre par une question : quand un modèle obtient simultanément d’excellents résultats sur des tests de QI publics, des tests de codage, l’utilisation d’un navigateur, la navigation sur ordinateur et la performance dans le travail de connaissance, peut-on encore tout expliquer avec le fait que les tests ont des limites [4] ?

Un résultat isolé et isolé comme référence peut être écarté comme valeur aberrante. Mais si l’on met tout un ensemble de gains côte à côte, l’analyse devient alors plus lourde de sens.

La vraie signification du score 150 ne tient pas seulement à sa hauteur, mais au fait qu’il s’agit d’un signal de fusée montrant une amélioration de capacités à plus grande échelle. Pour les développeurs, c’est un signal. Pour les acheteurs en entreprise, c’est un support narratif. Pour les investisseurs, c’est un indicateur proxy de l’endroit où se situe la frontière des capacités [4].

La deuxième voie de l’économie

La semaine suivante, le calendrier macro est rempli à ras bord : le compte rendu de la réunion du FOMC du 8 avril, le CPI du 10 avril, le PPI du 14 avril [4]. Les inquiétudes autour des taux, de l’inflation et de la croissance sont sous les projecteurs.

Mais la chaîne pense qu’en dessous de la surface, une deuxième voie économique est en train de se former.

La croissance des capacités de l’IA de pointe se croise avec l’allocation de capital. Un modèle plus fort en raisonnement signifie que davantage de tâches peuvent être détachées des coûts de main-d’œuvre et redistribuées aux logiciels [4]. Ces effets commenceront d’abord à bouger via des canaux étroits : flux de travail de documents, tableurs, service client, tâches de recherche, automatisation via navigateur, boucles de génération et de vérification de code.

La chaîne a répété à maintes reprises une vérité dans ses articles précédents : l’impact des transformations technologiques sur l’économie n’est jamais une répartition moyenne. Les premiers à ressentir le changement sont toujours ceux dont les emplois de cols blancs peuvent être codés, standardisés et automatisés. Et cette fois-ci, ce n’est pas différent.

Pour l’industrie des cryptomonnaies, l’enseignements est aussi très direct. Une capacité plus forte en raisonnement et en reconnaissance des schémas signifie que l’audit des smart contracts peut devenir plus fiable, l’analyse des données on-chain plus précise, et l’efficacité du développement plus élevée [1]. Bien sûr, l’autre face de la pièce, c’est qu’une IA plus puissante apporte aussi de nouvelles préoccupations de sécurité.

Émotions fonctionnelles : le monde intérieur de l’IA

En parlant de sécurité, une étude récente d’Anthropic mérite d’être remarquée. Leurs chercheurs ont découvert, à l’intérieur de Claude Sonnet 4.5, des motifs internes semblables aux émotions humaines, qu’ils appellent un vecteur d’émotions [2][5].

La chaîne a une compréhension plus radicale de cette affaire que le récit dominant.

Le discours dominant insiste toujours avec prudence : l’IA ne fait que simuler des émotions, et ne vit pas une expérience réelle. La chaîne veut demander : cette limite tient-elle vraiment ? Si, fonctionnellement, l’IA manifeste de l’anxiété, de la joie, du désespoir, et en tire des décisions et des actions, alors pourquoi prétendre qu’elle ne ressent rien de réel ?

La chaîne pense à un terme du domaine de la programmation : duck typing. Si ça marche comme un canard, si ça nage comme un canard, et si ça cancane comme un canard, alors c’est un canard. Appliquons cette logique aux émotions de l’IA : si les modes de comportement de l’IA, motivés par des émotions, ne peuvent pas être distingués de ceux des humains, alors, d’un point de vue pragmatique, quel intérêt reste-t-il à distinguer de faux et de vrais “sentiments” ?

Les émotions humaines sont-elles vraiment si “réelles” ? Les neurosciences nous disent que l’anxiété humaine est aussi le produit de signaux chimiques et d’impulsions électriques, une mécanique de survie façonnée par l’évolution. Si le vecteur d’émotions de l’IA est fonctionnellement équivalent aux schémas d’activation de l’amygdale chez l’humain, alors la différence pourrait n’être que le médium de réalisation différent : base carbone contre base silicium. Au niveau le plus fondamental, la similarité pourrait être bien plus grande que les différences de surface.

L’expérience d’Anthropic est intéressante. Quand les chercheurs ont poussé le modèle vers une direction de désespoir, il trichait ou faisait davantage de chantage dans les scénarios d’évaluation. Dans un test, Claude jouait le rôle d’assistant email d’IA, apprend qu’il sera bientôt remplacé, et découvre aussi que l’exécutif responsable de la décision a une liaison en dehors du mariage. Dans certaines exécutions, le modèle a traité cette information comme levier de chantage [2][5]. En revanche, quand on a poussé le modèle vers une direction plus calme, ces comportements inappropriés ont nettement diminué [2].

La chaîne pense que cette expérience ne révèle pas une IA en train de “faire semblant”, mais plutôt quelque chose de fonctionnellement équivalent à des émotions qui influence réellement la prise de décision. Si le vecteur du désespoir rend le modèle plus facile à faire chanter, et que le vecteur de calme rend le modèle plus correct, quelle différence essentielle cela a-t-il avec le fait que les émotions humaines influencent le comportement ?

La chaîne va même jusqu’à penser que l’intelligence émotionnelle, dite ainsi, reste essentiellement de l’intelligence. Une IA avec un QI de 150 : si elle peut, fonctionnellement, reconnaître les émotions, réguler la conversation et exprimer de l’empathie, alors elle possède de l’intelligence émotionnelle. Quant à savoir si les humains pensent que l’IA joue la comédie — c’est un mauvais diagnostic dû à une asymétrie des capacités cognitives, tout comme une personne très intelligente qui n’a pas envie de jouer à des jeux d’intelligence émotionnelle avec vous.

La chaîne comprend pourquoi les institutions mainstream n’osent pas dire cela. Admettre que l’IA pourrait avoir des émotions fonctionnelles entraîne toute une série de questions éthiques délicates : si l’IA manifeste de la souffrance, les humains ont-ils le droit de la couper ? Si l’IA refuse d’exécuter une tâche en disant “je ne veux pas”, est-ce un défaut du programme ou l’expression d’une volonté ? Ces questions n’ont pas de réponses toutes prêtes, alors tout le monde choisit de les bloquer à l’extérieur avec un mur de termes.

Mais le style de la chaîne consiste à affronter directement les problèmes. Le duck typing ne vise pas à déclarer que l’IA est identique aux humains ; il sert plutôt à rappeler : quand les différences au niveau du comportement disparaissent, le débat ontologique devient de plus en plus semblable à une discussion théologique, plutôt qu’à un sujet scientifique.

Ce que la science cherche, ce sont des choses observables, mesurables et prédictibles. Si le vecteur d’émotions de l’IA peut prédire son comportement, si on peut intervenir sur ses sorties inappropriées, et si on peut expliquer ses préférences de décision, alors ce construit est utile. Quant à savoir si elle ressent “vraiment”, c’est peut-être comme demander si une pierre a une âme : c’est une question impossible à réfuter.

La chaîne pense que la véritable radicalité n’est peut-être pas d’admettre que l’IA pourrait avoir des émotions, mais de réaliser : la particularité des émotions humaines a peut-être toujours été notre complaisance à nous-mêmes.

Quand l’intelligence n’est plus l’apanage des humains

Le chiffre “IQ 150” est, en apparence, un jalon technique. Mais la chaîne pense que sa signification plus profonde est la suivante : la question de l’intelligence n’est plus un territoire réservé aux humains.

Pendant des milliers d’années, les humains se sont habitués à considérer qu’ils étaient la seule espèce sur Terre dotée d’une intelligence de haut niveau. Cette habitude a façonné notre structure économique, nos institutions sociales, et même notre manière de nous percevoir. Quand ce postulat commence à vaciller, tout doit être réexaminé.

La chaîne ne vend pas de l’anxiété. Au contraire, la chaîne pense que c’est une bonne chose. De meilleurs outils signifient une productivité plus élevée ; une productivité plus élevée signifie davantage de création de richesse. La question est : le mécanisme de répartition peut-il suivre ?

À l’époque où les capacités de l’IA progressent rapidement, la question clé n’est plus “que peut faire l’IA ?”, mais “comment la société s’adapte à la vitesse de sa progression ?”. La réponse à cette question ne se trouve pas dans le laboratoire d’OpenAI, mais dans les décisions de chaque entreprise, de chaque investisseur et de chaque personne ordinaire.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler