Barrières de confiance : pourquoi la prochaine décennie de milliards d'utilisateurs d'IA accédera via un réseau de confiance

Auteur : Sakina Arsiwala, chercheuse chez a16z ; Source : a16z crypto ; Traduction : Shaw Golden Finance

Leçons de YouTube : le contenu est une arme de géopolitique

Il y a plusieurs années, j’ai occupé le poste de responsable produit pour la recherche internationale chez Google, puis j’ai dirigé l’expansion internationale de YouTube, et en seulement 14 mois, j’ai déployé le produit dans 21 pays. Je n’ai pas seulement mené du travail de localisation : j’ai surtout construit des partenariats locaux de contenu, en trouvant une voie à travers un champ de mines fait de lois, de politiques et de conditions d’accès au marché. Plus récemment, j’ai aussi pris en charge la gestion de la santé de la communauté (confiance et sécurité) sur Twitch. Au cours de ma carrière, j’ai également fondé deux startups.

Aujourd’hui, dans le domaine de l’intelligence artificielle (IA), on observe des similitudes étonnantes avec les phases de croissance de Google et de YouTube au début. Ma carrière m’a amenée à comprendre un fait : la mondialisation n’est pas une fonctionnalité produit, mais un bras de fer géopolitique. La leçon la plus profonde, c’est que la promotion via les canaux n’a jamais été un simple problème technique. La croissance dépend de partenaires locaux, d’intermédiaires culturels et d’opinion leaders de communauté dignes de confiance, qui construisent le pont entre les plateformes mondiales et les utilisateurs locaux.

J’ai vécu de près l’affaire du blocage des droits d’auteur de la GEMA en Allemagne : une organisation de droits musicaux a presque fait exclure tout un pays du programme de promotion YouTube à l’échelle pan-européenne. J’ai aussi vécu la tourmente des mandats d’arrestation pour manque de respect envers le roi en Thaïlande : en tant que responsable des relations internationales chez YouTube, je risquais d’être arrêté pour un contenu jugé insultant envers le roi de Thaïlande sur la plateforme, au point de ne même pas pouvoir y transiter. J’ai vu le Pakistan couper l’Internet national pour bloquer une vidéo. Et je me souviens que, lorsque les algorithmes mondiaux se sont heurtés aux interdits religieux locaux, notre bureau en Inde a subi une agression.

Ce dont nous avons réellement besoin de traiter n’a jamais été seulement une question de politique ou d’infrastructure, mais bien un mur de confiance.

Sur chaque marché, il faut d’abord que quelqu’un accepte d’en payer le coût, de clarifier quels contenus sont sûrs, acceptables et porteurs de valeur, avant que les utilisateurs ne s’y engagent. Ce coût s’accumule sans cesse, jusqu’à former une sorte de taxe de confiance : les premiers paient en avance, puis tout le monde la partage collectivement.

Désormais, la même contradiction se rejoue dans l’IA, mais avec un contexte plus exigeant, une évolution plus rapide et un impact plus visible. Le gouvernement fédéral américain et Anthropic se sont récemment retrouvés dans une impasse, suscitant de vifs débats publics ; OpenAI fait face à un examen de plus en plus intense en raison de ses partenariats avec le secteur public. Nous assistons à un changement : l’acceptation des utilisateurs ne dépend plus seulement de l’utilité, l’influence idéologique s’approfondit. Dans cet environnement, la confiance est fragile ; une seule chute de confiance, apparemment minuscule, peut déclencher une fuite massive et rapide des utilisateurs.

Google renforce ses investissements dans sa stratégie de confiance profonde, en reliant les marchés grâce à la familiarité des utilisateurs avec Workspace et l’écosystème de la recherche, mais la configuration mondiale se fragmente de plus en plus. Les lignes rouges réglementaires strictes de l’UE, la compétition féroce de la Chine pour le développement de l’IA, et l’essor de plus en plus marqué de l’« IA nationaliste » obligent tout le monde à rester très vigilant.

Les leçons de 2026 sont évidentes : la confiance institutionnelle et l’acceptation culturelle sont désormais indissociables du produit lui-même. Sans la confiance comme socle, on ne peut pas construire un système d’exploitation intelligent.

Voici le rempart de souveraineté : la frontière structurelle à l’intersection entre l’IA mondiale et la gouvernance locale. Et, du point de vue produit, il se manifeste sous une forme plus directe : le rempart de confiance.

L’expansion de tous les systèmes d’IA mondiaux finira par se heurter à ce mur. À ce point critique, l’acceptation des utilisateurs ne dépend plus des capacités techniques, mais du fait que les utilisateurs, les institutions et les gouvernements lui font confiance dans leur propre contexte.

Internet a été sans frontières. L’IA ne le sera pas.

La fin de l’ère des explorateurs

Les premiers « un milliard » d’utilisateurs d’IA étaient des explorateurs et des optimistes technologiques. Mais l’ère des explorateurs est désormais terminée. Au cours des trois dernières années, nous avons vécu dans l’époque du prompt engineering et de la « alchimie numérique » : les gens ont ouvert ChatGPT, Claude, et d’autres applications populaires, comme en se rendant dans un sanctuaire numérique, pour assister de leurs propres yeux aux miracles de l’intelligence générative. Dans cette ère, l’unique indicateur important était la capacité du modèle à battre les benchmarks : qui arrive en tête des tests de référence les plus récents ? qui a le plus de paramètres ?

Mais en entrant en 2026, les feux de camp de l’ère des explorateurs s’éteignent. Nous ne créons plus des jouets pour les curieux ; nous nous tournons vers des systèmes d’exploitation intelligents : ces canaux invisibles et omniprésents qui donnent à un entrepreneur individuel à São Paulo au Brésil et à une travailleuse du secteur de la santé communautaire à Jakarta en Indonésie la dynamique de tous les jours.

Ces utilisateurs ne sont pas des explorateurs, mais des gens guidés par des besoins pratiques. Ils ne veulent pas dialoguer avec les « fantômes » dans la machine ; ils veulent un outil qui les aide à surmonter les obstacles bien réels de la vie. C’est précisément l’instant où se franchit le véritable fossé pour conquérir la prochaine vague d’un milliard d’utilisateurs. Et c’est aussi dans cette zone périphérique encore incomplètement explorée que se heurte l’ambition mondiale d’API, à laquelle rêve la Silicon Valley, à la réalité la plus brutale de cette époque : le rempart de souveraineté.

Le changement central tient en ceci : la diffusion de l’IA n’est plus principalement une question de capacités du modèle, mais une question de distribution et de confiance. Les laboratoires de pointe continueront d’améliorer les performances des modèles, mais l’arrivée du prochain milliard d’utilisateurs ne sera pas due au fait qu’un modèle obtient un score plus élevé sur un benchmark : elle viendra du fait que l’IA atteint ces utilisateurs via des institutions, des créateurs et des communautés qu’ils ont déjà appris à croire.

Réalité 2026 : l’IA devient une question d’infrastructure nationale

En 2026, le défi central de l’industrie ne consiste plus à rendre les modèles plus intelligents, mais à faire en sorte que les modèles obtiennent une autorisation d’accès. Le rempart de souveraineté est la limite où se rencontrent l’intelligence générale et l’identité nationale. À l’échelle mondiale, ce rempart commence déjà à se dessiner : exigences de localisation des données, plans de calcul de puissance IA au niveau national, et projets de modèles portés par des gouvernements comme ceux de l’Inde, des Émirats arabes unis, de l’Europe, etc. Les politiques initiales de cloud infrastructure se transforment rapidement en politiques de souveraineté intelligente. Dans ce cadre, les États refusent de devenir des « colonies de données » et exigent que les systèmes intelligents fournissant des services à leurs citoyens fonctionnent à l’intérieur de leurs propres entrepôts de données souverains, qu’ils transmettent la culture locale et qu’ils respectent les frontières nationales.

Quand vous voyez les PDG de Google (Sundar Pichai), d’OpenAI (Sam Altman), d’Anthropic (Dario Amodei) et de DeepMind (Demis Hassabis) monter sur scène aux côtés du Premier ministre indien Modi lors du Sommet d’influence de l’IA en Inde en 2026, vous observez précisément la manifestation réelle du rempart de souveraineté. Le plan Vision M.A.N.A.V. proposé par le Premier ministre Modi (système éthique et moral, gouvernance par la responsabilité, souveraineté nationale, IA inclusive, systèmes dignes de confiance) envoie un signal clair : si les laboratoires de pointe tentent directement de « quadriller » le marché grand public, ils seront inévitablement éliminés par la réglementation. Et la confiance est l’unique monnaie permettant de franchir ces frontières.

Le dilemme d’un affaiblissement des effets de réseau et la raison pour laquelle cela force l’apparition de toute une nouvelle stratégie

Contrairement aux plateformes sociales où, à chaque nouvel utilisateur, la valeur augmente pour tous les autres utilisateurs, la valeur de l’IA est en grande partie déterminée par la localisation. Mes premiers mille prompts que j’ai envoyés ne rendront pas directement le système plus utile pour vous. Les cycles de données peuvent certes optimiser les modèles, mais l’expérience utilisateur reste toujours personnalisée, non « socialisée ». L’IA est un outil privé, qui peut être teinté d’émotions, mais son cœur reste celui d’un outil pratique.

Cela crée un problème structurel : l’IA ne peut pas s’appuyer sur les effets de réseau sociaux composables (effets de type capitalisation) dont les plateformes de la génération précédente ont profité pour décoller. En l’absence de graphe social natif, l’industrie ne peut que tomber dans une boucle à forte consommation : poursuivre sans cesse les premiers utilisateurs, les utilisateurs intensifs et les élites technologiques. Cette stratégie a fonctionné à l’ère des explorateurs, mais elle ne permet pas de toucher à grande échelle les prochains deux milliards d’utilisateurs.

Et surtout, ce modèle échouera complètement face au rempart de souveraineté. Parce que lorsque les effets de réseau sont faibles, la confiance ne se forme pas spontanément : elle doit être introduite de l’extérieur.

Transition : passer des effets de réseau aux effets de confiance

Si l’IA ne peut pas compter sur les effets de réseau sociaux pour se diffuser, elle doit s’appuyer sur une autre force : les réseaux de confiance. C’est le changement déterminant :

De l’acquisition d’utilisateurs à l’habilitation des intermédiaires

YouTube peut s’étendre à grande échelle précisément parce qu’il s’appuie sur des réseaux de confiance humains déjà existants. L’IA doit en faire autant. Plutôt que d’essayer d’établir une relation directe avec des milliards d’utilisateurs, la stratégie gagnante devrait être :

  • habiliter ceux qui ont déjà des relations avec des utilisateurs ;

  • exploiter la confiance qu’ils ont accumulée depuis longtemps ;

  • distribuer des capacités intelligentes via ces canaux.

Pourquoi c’est crucial

Dans un monde façonné par le rempart de souveraineté :

  • les canaux de distribution sont limités ;

  • les modèles « face à l’utilisateur » sont fragiles ;

  • la confiance est localisée, pas mondialement homogène.

Sans de puissants effets de réseau, l’IA ne peut pas se diffuser par la force brute à grande échelle : elle doit s’infiltrer en s’appuyant sur la confiance. L’IA n’a pas d’effets de réseau ; elle a des effets de confiance.

La solution : l’ère des intermédiaires

Comment YouTube a-t-il réussi à s’imposer sur les marchés internationaux ? Ce n’est pas parce qu’il propose un lecteur plus performant, ni parce qu’il se contente de localiser les textes de l’interface. La clé, c’est d’être la plateforme de choix pour les populations déjà dotées d’une confiance locale. Sur chaque marché, le point de départ de l’acceptation des utilisateurs n’est pas YouTube lui-même : c’est un ancrage d’identité — ces individus et communautés qui ont déjà la maîtrise du discours culturel :

  • les pages des fans de Bollywood à Dubaï, qui compilent des extraits rares de films mettant en scène Shahrukh ・ Khan

  • les fans ultra passionnés de l’anime aux États-Unis construisent un écosystème de contenu approfondi que les médias grand public n’ont jamais couvert

  • les comédiens locaux, les enseignants et les créateurs de montages transforment les contenus mondiaux en des formats qui correspondent à la perception culturelle

Ces créateurs ne se contentent pas de téléverser des vidéos : ils interprètent Internet pour leur public, jouent le rôle d’intermédiaires de confiance et construisent des ponts entre des plateformes à l’étranger et des utilisateurs locaux. Le succès de YouTube réside dans le fait qu’il est devenu une infrastructure invisible qui soutient ces ancres d’identité.

La logique centrale ignorée : le modèle « face au consommateur » se heurte au rempart de souveraineté

Aujourd’hui, la plupart des entreprises d’IA conservent la mentalité « face au consommateur » : créer un modèle plus performant → l’afficher via une interface de chat → obtenir directement des utilisateurs.

Ce modèle fonctionne à court terme, mais il est difficile de durer. Dans les marchés à forte friction, les utilisateurs n’adoptent pas directement une nouvelle technologie : ils adoptent la technologie via des personnes en qui ils ont confiance.

La mondialisation de YouTube n’a pas consisté à convaincre un par un des milliards d’utilisateurs : c’est plutôt habiliter ceux qui ont déjà gagné la confiance du public. C’est là le véritable sens de l’infrastructure invisible : vous ne possédez pas les relations avec les utilisateurs, vous fournissez le support à ces relations. Et à l’échelle, ce modèle a un fossé défensif plus solide.

Du chat à l’agent intelligent : habiliter les intermédiaires de confiance

C’est précisément là que se situe l’essence du passage de l’interface de chat aux agents intelligents. Le chat est un outil orienté vers l’individu, tandis que les agents servent de levier pour les intermédiaires. En appliquant les idées de l’exécutif d’Anthropic A. Ami Walla — « concevoir un produit pour les personnes les plus épuisées » — dans de nombreux marchés, ces personnes sont précisément des convertisseurs de confiance :

  • des éducateurs qui adaptent les idées venues de l’étranger

  • des entrepreneurs qui font face à la bureaucratie locale

  • des leaders communautaires qui gèrent une surcharge d’informations

La manière de gagner consiste à résoudre leur délai de confiance : l’écart entre les capacités d’intelligence à l’échelle mondiale et les scénarios pratiques locaux. Cela exige un système d’infrastructure d’agents intelligents directement déployable :

  • pour les éducateurs : réinventer les cours avec Sora / GPT-5.2 — remplacer les analogies de football américain par le cricket, conserver le sens central tout en l’alignant sur la culture locale.

  • pour les entrepreneurs individuels : les agents intelligents peuvent non seulement interpréter des formulaires fiscaux à Singapour, mais aussi effectuer le remplissage et la soumission via des API locales.

  • pour les leaders communautaires : ajouter des fonctionnalités de mémoire de contexte à WhatsApp — extraire des éléments d’action structurés à partir de 10 000 messages, conserver l’information utile et maintenir les normes de la communauté.

Le cœur d’un modèle faisable : résoudre le délai de confiance du « dernier kilomètre »

Pour comprendre pourquoi ce modèle peut se généraliser à grande échelle, il faut comprendre le délai de confiance. Dans de nombreuses régions du monde, la contrainte n’est pas le canal d’accès technique : c’est le temps, le risque et l’incertitude nécessaires pour établir la confiance. La diffusion de la technologie ne se fait pas par la publicité : elle se fait par l’endossement.

L’erreur commise par la plupart des entreprises d’IA, c’est d’essayer de centraliser le paiement de la taxe de confiance via la marque, la distribution ou le polissage produit, mais la confiance ne peut pas être mise à l’échelle de cette manière.

Le chemin le plus rapide, c’est d’externaliser la taxe de confiance à ceux qui ont déjà accepté de supporter ce coût : les créateurs, éducateurs et opérateurs ancrés localement. Ils ont déjà fait l’essai et l’erreur auprès de leur public ; ils connaissent ce qui fonctionne, ce qui échoue, et ce qui est vraiment important dans le contexte local — ils portent le risque pour le public.

En habilitant ces intermédiaires de confiance :

  • les coûts d’acquisition des utilisateurs tendent vers zéro : la distribution s’appuie sur les réseaux de confiance existants ;

  • la valeur sur le cycle de vie des utilisateurs augmente : les fonctionnalités pratiques correspondent aux besoins locaux, au lieu d’être uniformisées ;

  • la vitesse de diffusion s’accélère : la confiance est directement héritée, sans accumulation à partir de zéro.

L’entreprise obtiendra, en quelque sorte, une équipe de « ventes » mondiales sans avoir à payer : sa crédibilité, son efficacité et sa profondeur d’enracinement dépasseront n’importe quelle stratégie de promotion centralisée. Ce n’est plus vous qui construisez le produit pour les utilisateurs ; c’est vous qui fournissez un levier à des personnes déjà dignes de confiance auprès des utilisateurs.

C’est précisément la voie de la mondialisation de YouTube, et c’est aussi la seule manière pour l’IA de franchir le rempart de souveraineté.

Entrepôt de données souverain : douves géopolitiques

Le techno-optimisme défendu par Marc Andreessen n’aboutit finalement pas à la confrontation à la réglementation, mais à sa « mise en produit ». Face à la bataille avec le DeepSeek de la Chine (DeepSeek), le Kimi de la Face cachée de la Lune (Kimi), la victoire ne dépend pas d’ignorer les frontières : elle dépend de la maîtrise de l’entrepôt de données.

Qu’est-ce qu’un entrepôt de données souverain ? C’est une instance localisée de premier ordre pour le modèle, qui s’exécute dans le cadre de l’infrastructure numérique publique (DPI) d’un pays.

  • Douves géopolitiques : en donnant à des pays comme l’Inde et le Brésil une souveraineté numérique sur les modèles, les poids et les données, nous renversons fondamentalement la répartition du contrôle. Les capacités intelligentes ne sont plus gouvernées par des intermédiaires via des plateformes étrangères : elles sont gouvernées de manière autonome à l’intérieur des frontières. Ce n’est pas un « verrouillage » direct des adversaires externes, mais une hausse considérable des coûts d’influence, une baisse de la dépendance à l’étranger, et une réduction des risques liés au contrôle, à l’extraction de données ou aux interventions unilatérales.

  • Ancrage d’identité : en liant le modèle de manière profonde à la culture locale et aux réalités juridiques, on construit des douves infranchissables pour l’intelligence générale.

  • Boucles de feedback : résoudre des détails hautement localisés comme les licences fiscales en Malaisie n’est pas une distraction, mais un accélérateur pour le modèle. Cela apporte une élasticité culturelle au modèle de base, lui permettant de rester en permanence au niveau d’intelligence le plus avancé au monde.

Il existe ici une contradiction réelle. La vision de l’IA est de parvenir à l’intelligence générale, mais la tendance à la souverainisation pousse tout l’écosystème vers une fragmentation. Si chaque pays met en place sa propre pile technologique, nous risquons une incompatibilité des systèmes, des standards de sécurité inégaux et une duplication des investissements en ressources. Le défi auquel font face les laboratoires de pointe n’est pas seulement d’augmenter l’échelle de l’intelligence : c’est de concevoir une architecture qui permette à la fois la gouvernance localisée et la préservation des avantages de la coopération en capacité mondiale.

Trois changements structurels à l’ère des intermédiaires

1. La distribution de l’IA entrera dans les réseaux de confiance existants

L’IA ne se généralisera pas par le biais d’applications indépendantes : elle s’intégrera dans les plateformes de messagerie instantanée, les flux de travail des créateurs, le système éducatif et les infrastructures des petites et moyennes entreprises — parce que la confiance a déjà été établie dans ces contextes. En l’absence de puissants effets de réseau, la distribution doit s’appuyer sur les réseaux relationnels existants entre les personnes.

2. L’infrastructure IA de niveau national deviendra un standard

Les gouvernements demanderont de plus en plus que les systèmes IA essentiels soient déployés localement sous forme de modèles, que la puissance de calcul souveraine soit construite, ou qu’ils acceptent un examen de réglementation ; cela accélérera le déploiement de l’architecture des entrepôts de données souverains.

3. L’économie des créateurs se transformera en économie d’agents

Les créateurs ne se contenteront plus de produire du contenu : ils déploieront des agents pour exécuter des tâches réelles pour leur communauté. Ces agents deviendront une extension d’individus dignes de confiance, hériteront de leur crédibilité et transmettront des capacités intelligentes via des réseaux de confiance.

Bien sûr, il existe aussi une autre possibilité : l’apparition d’un assistant dominant à l’extrême, profondément intégré au système d’exploitation, au navigateur et aux appareils, établissant directement un lien entre l’utilisateur et le modèle, en court-circuitant totalement les intermédiaires. Si cela arrivait, la couche de confiance serait directement intégrée à cet assistant.

Mais l’histoire montre un schéma plus diversifié. Même les plateformes les plus dominantes — des systèmes d’exploitation mobiles aux réseaux sociaux — finissent par se développer grâce à l’écosystème. L’intelligence peut être universelle, mais la confiance reste toujours localisée. Quelle que soit l’architecture qui l’emporte, le défi central ne changera pas : la diffusion de l’IA n’est plus principalement un problème de modèle, mais un problème de distribution et de confiance.

Conclusion : les marchés de niche sont les vrais marchés mondiaux

L’erreur la plus importante de l’ère des explorateurs, c’est de croire que l’intelligence est un bien standardisé — un seul API mondial qui se comporte de la même manière dans les salles de réunion de Manhattan et dans les villages du Karnataka. Le rempart de souveraineté révèle une vérité plus brutale : l’intelligence est peut-être universelle, mais la diffusion ne l’est pas.

Les acteurs nationaux et locaux ne veulent pas d’un système externe en « boîte noire » : ils veulent le contrôle, la capacité d’adapter au contexte, et le droit de façonner l’intelligence à l’intérieur de leurs propres frontières. Ils ne veulent pas d’applications prêtes à l’emploi ; ils veulent des voies d’accès sous-jacentes — des infrastructures, des systèmes de sécurité et de la puissance de calcul, pour que leurs citoyens puissent construire en autonomie.

La logique de croissance de 2026 ne consiste plus à chercher une expérience utilisateur universelle, mais la résilience du produit — permettre à l’intelligence de s’adapter aux contextes locaux, à la réglementation et à la culture sans perdre ses capacités essentielles. Si nous continuons à poursuivre directement les consommateurs mondiaux, nous ne serons qu’une couche externe : fragile, remplaçable, et nous répéterons les chocs que j’ai vécus sur YouTube.

Mais lorsque nous basculons vers l’habilitation des intermédiaires, le modèle change complètement : de l’interface de chat aux agents, de la persuasion des utilisateurs à l’habilitation des intermédiaires de confiance, de la confrontation à la réglementation à sa transformation en douves.

La mise à l’échelle de l’IA ne dépend pas des modèles, mais de la confiance.

Le gagnant de la course à l’IA ne sera pas la société qui possède les modèles les plus intelligents : ce sera celle qui multipliera par dix la capacité des héros locaux — les enseignants, les comptables, les leaders communautaires. Car, au fond, l’intelligence se transmet dans les systèmes, tandis que la diffusion se produit dans la population.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler