Finance Experts Panel | Jiang Xiaojun Discusses AI for Good: What Is Good, How to Do Good, Who Will Do Good

Texte par / Professeur à l’Université de l’Académie chinoise des sciences sociales, ancien secrétaire général adjoint du Conseil d’État Jiang Xiaojun

Introduction : Récemment, la Conférence académique sur le développement et la gouvernance de l’économie numérique en Chine 2026 (Chongqing) s’est tenue avec succès à l’Université de droit et de sciences politiques du Sud-Ouest. Le professeur Jiang Xiaojun, professeur à l’Université de l’Académie chinoise des sciences sociales et ancien secrétaire général adjoint du Conseil d’État, a prononcé un discours d’ouverture intitulé « L’IA pour le bien : qu’est-ce que le bien, comment le faire, et qui le fera ? ».

Jiang Xiaojun estime que, au sujet de « l’IA pour le bien », les discussions sont déjà nombreuses et le degré de consensus sur l’idée elle-même est assez élevé, mais les débats sur la manière de réaliser concrètement ces « bonnes actions » et sur qui doit les exécuter restent relativement insuffisants. Il faut replacer ce problème dans le système de connaissances des sciences sociales pour en faire l’analyse et la discussion.

Qu’est-ce que le bien : la perspective des sciences sociales

Depuis longtemps, les discussions sur l’IA pour le bien sont nombreuses et le degré de consensus sur les idées est assez élevé. Par exemple, depuis le rapport sur l’éthique des robots publié en 2016 par l’UNESCO (« Preliminary Draft Report of COMEST on Robotics Ethics ») jusqu’au sommet parisien sur l’action en IA en 2025, les personnes ont un haut degré de consensus sur les idées de gouvernance de l’IA.

Des notions telles que la sécurité, la transparence, la non-discrimination, l’explicabilité, la traçabilité, l’équité et l’impartialité, l’inclusion et l’ouverture, le respect de la vie privée, le partage des bénéfices, l’orientation vers l’humain, le contrôle par les humains, etc., continuent d’être répétées et discutées, mais les débats sur la manière de réaliser concrètement ces « bonnes actions » et sur qui doit les exécuter restent relativement insuffisants. Ces discussions sont principalement menées par les entreprises concernées et des groupes techniques pertinents dans le cadre de « l’alignement », de manière unilatérale et changeante, manquant de stabilité générale.

Je pense qu’il faut replacer ce problème dans le système de connaissances des sciences sociales pour en discuter et l’analyser. Au sens large, « le bien » est précisément l’intention et le thème de nombreuses recherches en sciences sociales. La question de savoir si la technologie est « tournée vers le bien » dépend fondamentalement du fait qu’elle favorise ou non le développement économique, le progrès social et le bonheur du peuple, c’est-à-dire qu’elle améliore ou non le bien-être humain.

Les sciences sociales ne peuvent pas seulement proposer des voies idéologiques vers le bien ; dans un système de connaissances universel, elles peuvent aussi établir des critères d’évaluation, des voies de mise en œuvre et des acteurs de l’action, tout en disposant d’un socle académique plus profond et d’une capacité théorique plus solide.

I

Le raisonnable, c’est le bien : affectation efficace des ressources, accroissement du bien-être social et répartition équitable

« Le raisonnable » est une notion centrale en économie. L’économie définit « améliorer l’efficacité de l’affectation des ressources, accroître le bien-être social et assurer une répartition relativement équitable » comme étant le raisonnable.

Dans le cadre de cet objectif, l’économie dispose de critères d’évaluation et d’indicateurs clairs : améliorer la productivité totale des facteurs, augmenter le ratio intrants-sortants, stimuler la croissance des revenus, promouvoir les investissements en innovation, etc., sont des indicateurs de mesure de l’efficacité de l’affectation des ressources ; l’amélioration du niveau d’éducation et des soins médicaux, le perfectionnement des systèmes de protection sociale, etc., sont des indicateurs de mesure de l’accroissement du bien-être social. En évaluant avec ces indicateurs, on constate que l’IA contribue de manière évidente à l’augmentation de la productivité totale des facteurs et à la croissance du bien-être social : la technologie est décidément un « bien ».

Pour réaliser le « bien raisonnable », l’économie dispose de voies de mise en œuvre et d’acteurs de l’action. Par exemple, laisser le marché jouer un rôle décisif dans les domaines liés au développement de l’IA constitue une voie de mise en œuvre. Cela implique nécessairement que les entreprises soient les acteurs de l’action. Bien sûr, le marché ne comporte pas seulement des entreprises comme acteurs ; il faut aussi un bon « environnement de marché », par exemple une concurrence égale et une entrée équitable. Par conséquent, cela exige que la régulation du marché soit solide et améliorée.

En termes de répartition équitable, l’IA ne peut pas encore être qualifiée de « bien ». Le coefficient de Gini, l’écart de revenus, etc., sont des indicateurs utilisés par l’économie pour mesurer si les résultats du développement sont distribués de manière relativement équitable. En utilisant ces indicateurs, l’impact actuel de l’IA est principalement négatif, autrement dit il existe un impact de « non-bien ». D’une part, la richesse se concentre davantage entre les mains d’un très petit nombre de personnes dont l’innovation a réussi ; d’autre part, l’effet de substitution produit par l’IA affecte surtout les groupes à revenus moyens et faibles. À ce stade, on ne voit pas encore de signe indiquant que le développement de l’IA pourra continuer et produire un effet d’amélioration ou de renversement.

D’après le processus des progrès technologiques passés, pour résoudre ce problème, les entreprises du secteur de l’IA doivent faire des efforts, mais il faut aussi que le gouvernement joue un rôle plus efficace : il faut maintenir un équilibre nécessaire entre, d’une part, l’application de technologies d’IA dont l’effet principal est la substitution du travail et, d’autre part, les nouvelles opportunités d’emploi créées par l’IA ; en même temps, il faut mieux remplir la responsabilité du gouvernement en perfectionnant les systèmes de protection sociale à long terme.

II

L’utilité, c’est le bien : les bénéfices pour les consommateurs au-delà de la frontière du PIB

Certains bénéfices issus des progrès technologiques ne peuvent pas être mesurés par la croissance du PIB au sens standard. Pourtant, ils peuvent apporter une grande quantité de surplus du consommateur, ou ce qu’on appelle l’utilité. En termes simples, cela se traduit par le fait d’apporter aux populations des facilités, de la joie, du bonheur et bien d’autres bénéfices ressentis. Dans ce domaine, l’impact de l’IA est particulièrement frappant.

L’IA apporte un bien de commodité. La commodité apportée par l’IA est très évidente, mais une partie considérable ne se reflète pas dans le PIB. Par exemple, les nombreux services d’autonomie offerts aux utilisateurs par les consommateurs via Internet, des modèles d’IA et des agents intelligents apportent aux utilisateurs une grande commodité ; pourtant, ils ne génèrent pas d’activités économiques pouvant être comptabilisées dans le PIB. Au contraire, ils remplacent des services qui, eux, auraient pu être comptabilisés dans le PIB. Par exemple, la réservation de billets en libre-service remplace des services de réservation de billets ; des informations gratuites en ligne remplacent les abonnements à des journaux ; les e-mails remplacent l’envoi de lettres postales, etc., ainsi que de nombreux services gratuits.

L’industrie culturelle est l’industrie la plus représentative. Les plateformes de divertissement et les modèles génératifs permettent à chacun d’apprécier davantage de musique, de livres, de vidéos et des produits culturels plus variés, ce qui augmente considérablement la consommation culturelle. En même temps, le marché des produits culturels mesuré par le PIB ne croît pas de manière synchronisée.

Par exemple, l’Association of Recording Industry of America montre que les revenus de l’industrie de la musique américaine sont passés de 14,6 milliards de dollars en 1999 à 7,5 milliards de dollars en 2016. Les nombreux bénéfices que la musique numérique apporte aux consommateurs ne peuvent pas être mesurés par le PIB. Bien que des plateformes fournissant divers services gratuits poussent les consommateurs vers la publicité et créent ainsi du PIB, de nombreuses recherches montrent que ce dernier est très inférieur, par rapport en taille, au PIB des services qui sont remplacés et des bénéfices additionnels. Il est clair que l’IA apporte un « bien d’utilité ».

L’IA apporte aussi un bien d’égalité. L’IA fait entrer une grande masse de consommateurs ordinaires dans des domaines de consommation et des domaines créatifs qui étaient auparavant principalement accessibles aux groupes à hauts revenus et à haut niveau de connaissances. Par exemple, dans le domaine de la consommation culturelle, les consommateurs qui ont de faibles compétences en lecture peuvent choisir de laisser l’IA fournir ou générer des formes comme des images et des vidéos, afin de proposer davantage de produits culturels riches en contenus. Les consommateurs à faibles revenus peuvent utiliser les services gratuits des plateformes pour découvrir et apprécier des produits et services culturels coûteux, auparavant inaccessibles dans la vie hors ligne (par exemple des représentations dans des théâtres haut de gamme).

De même, dans le domaine de la création culturelle, des personnes ordinaires dont les capacités « professionnelles » en création sont insuffisantes peuvent transformer des inspirations extrêmement créatives en produits culturels qu’elles créent elles-mêmes et qu’elles partagent avec les autres. Sur les réseaux sociaux, les influenceurs vendent non seulement leurs produits et services, mais échangent aussi avec leurs fans sur leur mode de vie, leurs émotions, leurs styles, leurs pensées et leurs rêves, etc., apportant ainsi aux consommateurs davantage de satisfaction sur les plans spirituel et psychologique.

Le bien d’utilité se manifeste par la gratuité, l’auto-divertissement et l’entraide, et il ne peut pas être mesuré par la croissance du PIB ou l’augmentation des revenus ; en revanche, on peut l’évaluer avec des méthodes comme l’évaluation de la valeur conditionnelle (méthode des évaluations contingentes) ou l’évaluation de la valeur de disposition (volonté). On peut demander aux consommateurs, par exemple, combien ils seraient prêts à payer si ces biens d’utilité devaient être achetés, ou combien il faudrait les compenser s’ils devaient renoncer à certains biens d’utilité qu’ils peuvent obtenir gratuitement. Par exemple, quelle compensation exigeraient-ils s’ils devaient renoncer à l’usage d’applications du type « XiaoHongShu » ou à l’usage de grands modèles gratuits, et à partir de là, calculer le bénéfice d’utilisation obtenu par l’ensemble de la société.

Des études montrent que le ratio entre l’utilité obtenue par les personnes à faibles revenus et leur revenu monétaire est significativement plus élevé que le ratio correspondant chez les personnes à hauts revenus. Cela indique que l’IA contribue bien au bien d’égalité et à l’amélioration du bien-être des personnes à faibles revenus.

L’utilité peut aussi comporter du non-bien. Certaines consommations qui procurent un plaisir psychologique immédiat peuvent causer des dommages profonds et durables au corps et à l’esprit. Par exemple, se laisser emporter par les jeux en ligne, ou être enfermé dans une « bulle informationnelle » épaisse menant à des limites de cognition. Ces problèmes font l’objet d’un large consensus sur le plan social quant à leur nocivité ; les personnes concernées en souffrent profondément, mais elles n’arrivent pas à s’en sortir.

Les détenteurs et les utilisateurs de la technologie doivent assumer des responsabilités de retenue et d’autodiscipline : s’il n’existe pas de mesures de réponse, il ne faut pas entreprendre ces actes de non-bien ; en cas d’effets indésirables, il faut les restreindre et les encadrer par la force de la technologie. De la même manière que les producteurs d’un produit ont une responsabilité en matière de qualité, ils ne doivent pas vendre des produits qui nuisent à la santé et mettent la vie en danger.

En même temps, il faut aussi que le gouvernement et la société coopèrent pour répondre et traiter. Pour les « maux » faisant l’objet d’un consensus à l’échelle de toute la société — par exemple des actes visant à remettre en cause les limites des valeurs humaines, à porter atteinte à la vie privée des individus, ou à promouvoir le terrorisme, etc. — les autorités publiques doivent prendre des mesures énergiques.

III

Le consensus, c’est le bien : degré de consensus social sur les conséquences à long terme de la technologie

Les sciences sociales, dans plusieurs disciplines, mènent des recherches sur le « consensus ». Par exemple, dans une perspective sociologique, le consensus social représente un degré relativement élevé d’accord social. Cet article définit le « consensus » comme « le consensus social ayant le plus grand nombre de points communs et la solidarité sociale qui en découle », et utilise cette notion pour discuter les questions d’éthique technologique à l’ère de l’IA.

Les questions d’éthique technologique existent depuis longtemps, mais à l’ère de l’IA elles deviennent particulièrement saillantes, et leur nature change de manière fondamentale. À l’époque, lorsque nous parlions de la science, il s’agissait de « découvrir les lois naturelles ». Il s’agissait alors de lois endogènes inscrites dans l’ordre naturel, issues des milliards d’années de luttes entre les forces et d’évolution formées dans le monde naturel. Désormais, l’IA s’efforce de construire des situations qui n’existent pas dans l’évolution naturelle ; elle crée de nouveaux ordres. Bon nombre d’explorations visent à modifier l’état naturel de l’être humain ou de la société humaine.

Par exemple, dans le domaine des sciences de la vie où l’application de « AI for science » est la plus dense, de nombreuses recherches tentent de modifier nos structures physiologiques, de reproduction et de cognition, voire d’intervenir dans la formation de la conscience, ce qui fait changer la subjectivité et la capacité de contrôle des humains dans la formation de la conscience et les comportements associés. Certaines visent aussi à construire de nouvelles formes de vie dont les conséquences à long terme sont inconnues. Quelles conséquences ces nouvelles choses peuvent entraîner, peut-être même les scientifiques qui les ont inventées ne peuvent pas le dire avec certitude. À y réfléchir, cela ressemble relativement peu aux découvertes scientifiques passées.

Dans un tel contexte, il devient très important de savoir si l’humanité accepte ou non une certaine direction du développement scientifique. C’est ce que cet article appelle la dimension « consensus ». J’ai déjà dit à un certain scientifique que j’admire beaucoup : pour une recherche qu’il envisageait de mener, en tant qu’amateur de technologie ignorant, j’étais très curieux et plein d’admiration ; mais en tant qu’économiste, je n’étais pas en mesure de le juger acceptable. Pourtant, en revenant à la personne humaine, à cette identité naturelle, je veux dire que cette recherche est entièrement « non consensuelle ».

Quand les scientifiques cherchent à modifier les caractéristiques humaines et les lois naturelles qui se sont formées au fil de l’évolution pendant des millions d’années, il s’agit d’une question majeure qui concerne tout le monde. Le public doit être informé et participer, et exprimer son accord ou son désaccord. Une telle discussion, très teintée de langage technique, peut être difficile à faire avancer au moyen d’une méthode d’évaluation du type « valeur de disposition », et elle nécessite plutôt un « processus de consultation collective » transparent et ouvert.

Les scientifiques ont la responsabilité d’expliquer au public toutes les conséquences possibles, et pas seulement leurs aspects avantageux ; en même temps, il faut permettre à l’ensemble de la société de mener des discussions approfondies afin de former un consensus social ayant le plus grand nombre de points communs. Ce n’est qu’en laissant chaque partie exprimer pleinement ses points de vue et mener des confrontations et débats continus qu’on peut trouver une trajectoire d’approche vers le « consensus » et une position concrète. Il ne faut pas laisser la logique technologique devenir le facteur dominant ; il faut aussi prévenir le risque que quelques experts manquant de sens des responsabilités et de capacité de prévision prennent précipitamment des « innovations » inappropriées irréversibles. En résumé, les exigences du consensus, pour ce type de questions d’IA vers le bien, doivent être présentes.

Mécanisme de discussion : la collaboration de toutes les parties pour promouvoir l’IA vers le bien

Regardons le mécanisme permettant de réaliser le bien. En plus du résultat naturel du « bien d’utilité » propre à la technologie, le « bien raisonnable », et plus encore le « bien consensuel », ne se produisent pas spontanément. D’où viennent alors les incitations à faire le bien ? Comment concevoir les mécanismes correspondants ?

La pratique montre que, à plusieurs niveaux, il existe des mécanismes incitatifs compatibles avec « le bien » et des facteurs conduisant au « non-bien ». À l’ère de l’IA, les forces du « non-bien » et celles du « bien » sont différentes de celles d’avant. « Vers le bien » exige à la fois une auto-contrainte et une contrainte sociale.

D’abord, l’incitation à « l’IA vers le bien » pour les innovateurs et les producteurs est significative et efficace. Une raison importante est que l’IA nécessite une application à très grande échelle. Si son « bien » ne fait pas l’objet d’un consensus social, il est impossible de l’appliquer de manière satisfaisante et durable. L’attention élevée de l’ensemble de la société envers la sécurité et les questions d’éthique de l’IA crée une pression très omniprésente, forte et durable sur les entreprises et les entrepreneurs, et oriente leurs valeurs.

La préservation de la réputation exige que les producteurs « fassent le bien ». Lorsqu’ils sont considérés comme « non-bons », ils doivent répondre rapidement et ajuster leurs pratiques. En 2023, par exemple, Open AI a suscité une large controverse parce que, dans son entraînement, elle a utilisé des données sensibles des utilisateurs ; elle a ensuite promis immédiatement de ne plus le faire. Quelques grandes entreprises nationales d’IA ont également montré de bons cas de réponse. À partir de cet angle, le mécanisme d’incitation à « l’IA vers le bien » est aujourd’hui plus omniprésent et plus puissant.

Deuxièmement, la gouvernance distribuée est une caractéristique distinctive de la gouvernance de l’IA vers le bien. La différence la plus importante entre l’IA et les données, d’une part, et les industries traditionnelles d’autre part, réside dans la mise en scène des scénarios d’application. Dans le passé, l’affectation des ressources sur le marché était une relation de type un-à-un. À l’ère de l’IA, en revanche, l’affectation des ressources est organisée de manière en grappe et selon des scénarios.

Le gouvernement numérique, les villes intelligentes, les transports intelligents, la santé intelligente, l’industrie du vol à basse altitude, pour être efficaces, nécessitent une série de transactionnaires qui affectent les ressources. Nous définissons cela comme une affectation distribuée des ressources. Dans une affectation distribuée des ressources, les parties prenantes liées aux intérêts et aux idées forment, pour des scénarios spécifiques, des communautés de tailles variées. Le marché et les entités sociales choisissent elles-mêmes, de manière autonome, des partenaires de transaction et de coopération. De plus, chaque scénario possède ses propres règles : par exemple, la plateforme a ses règles de transaction, ses règles de retour, ses règles de sanctions en cas d’infraction, etc. Ces règles définissent ce qui constitue dans ce scénario « le bien et le non-bien », c’est-à-dire ce que les participants peuvent ou ne peuvent pas faire. Les participants respectent ces règles ; de ce fait, ces communautés possèdent en même temps des fonctions de gouvernance. On peut les appeler « gouvernance distribuée ».

Troisièmement, la gouvernance par les pouvoirs publics est indispensable. Certains « non-biens » aux conséquences graves ne peuvent pas être laissés au marché et aux marchandages sociaux ; il faut clairement dresser une liste de ce qu’il est « interdit de faire », autrement dit une liste négative d’« actes malveillants ». Par exemple : ne pas porter atteinte à la vie privée des utilisateurs sans leur consentement ; ne pas publier de fausses informations ; le terrorisme ; les discours de haine, etc.

Par ailleurs, si l’on veut que la gouvernance du marché et celle de la société soient efficaces, le rôle le plus important du gouvernement est d’imposer l’ouverture et la transparence. Les entreprises doivent permettre aux consommateurs de voir rapidement ce qu’est votre accord d’utilisation. La transparence des détails de l’accord est très importante. Et, comme indiqué plus tôt, s’agissant des innovations liées à l’humain et à la société, les fournisseurs doivent expliquer clairement ce qu’ils font et quelles en sont les conséquences pour la société.

Enfin, le signal envoyé par le gouvernement est aussi particulièrement important. Les lois doivent être relativement stables : il est difficile de suivre l’évolution à temps, et il n’y a pas de nécessité à introduire précipitamment des textes avant que la situation ne soit relativement stable. Mais le gouvernement peut faire beaucoup : publier des guides et des cas exemplaires, critiquer des pratiques inappropriées, convoquer des entreprises concernées, etc. Tout cela a un rôle significatif pour orienter l’IA vers le bien.

Pour revenir au thème principal de cet article : les sciences sociales doivent jouer un rôle important dans la promotion de l’IA vers le bien. Les sciences sociales disposent d’un socle disciplinaire profond qui nous permet de mieux juger si l’IA est bonne ou mauvaise. En matière d’efficacité d’affectation des ressources, de gains et pertes de bien-être social, de répartition équitable des richesses, d’évaluation de la perception des souhaits du public et de maintien de l’harmonie sociale, les sciences sociales ont toujours apporté des contributions remarquables. À l’ère de l’IA, nous devons redoubler d’efforts, assumer nos responsabilités, et, dans les discussions, la mise en pratique et la construction théorique de l’IA vers le bien, occuper une position centrale et à la pointe, avec une vision à la fois « centrale » et « de l’avant-garde ».

Source | Synthèse basée sur les propos tenus en direct par le professeur Jiang Xiaojun

Édition | Lan Yanfan

Vérification | Qin Ting

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler