Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Daniil et David Liberman : L'IA n'est pas seulement une bataille de modèles, mais aussi une bataille pour l'infrastructure de puissance de calcul
Auteur | Gonka.ai
Préface : Dans un contexte où la discussion mondiale sur l’IA ne cesse de s’intensifier, l’attention du secteur se concentre souvent sur les capacités des modèles, les avancées technologiques et le cadre réglementaire. Mais sous ces débats, une question plus fondamentale émerge peu à peu : à qui appartient réellement l’infrastructure de puissance de calcul de l’IA ? Lors d’un dialogue à l’Unlockit Conference, Daniil et David Liberman, co-créateurs du protocole Gonka, futurologues, entrepreneurs et investisseurs, ont présenté un point de vue central : l’intelligence artificielle n’a jamais été une technologie neutre, et l’infrastructure de puissance de calcul détermine finalement à qui l’IA sert. Selon eux, l’avenir de l’IA n’est pas seulement une course technologique, mais aussi une longue bataille pour le contrôle de l’infrastructure.
La véritable base de l’IA : pas le modèle, mais la puissance de calcul
Ce n’est que lorsque l’on ne remet pas en question ses hypothèses fondamentales que l’infrastructure centralisée de l’IA semble inévitable.
Pendant longtemps, la majorité des discussions sur l’intelligence artificielle ont porté sur les modèles, l’éthique ou la réglementation. Mais en dessous, il existe une couche encore plus déterminante : la puissance de calcul. Qui possède cette puissance, qui contrôle l’accès à cette puissance, et dans quelles conditions elle peut être utilisée, ces éléments déterminent en fin de compte comment l’IA fonctionne et à qui elle sert.
En adoptant cette perspective, le tableau actuel devient difficile à ignorer. Des études de l’OCDE et d’autres données publiques montrent que la puissance de calcul avancée pour l’IA se concentre de plus en plus chez quelques fournisseurs de cloud, principalement dans un nombre limité de pays. Cela crée un « fossé de puissance de calcul » croissant, entre ceux qui ont accès à l’infrastructure et ceux qui n’y ont pas accès.
Cette concentration n’est pas le fruit du hasard. Aujourd’hui, l’accès aux GPU avancés est contrôlé par quelques fournisseurs, de plus en plus influencés par les priorités nationales. Résultat : une puissance coûteuse, limitée en capacité, et géographiquement inégalement répartie. Tout cela survient à un moment où l’IA devient une infrastructure clé pour la science, l’industrie et la société.
Par ailleurs, les systèmes décentralisés actuels ne résolvent pas automatiquement ce problème. Beaucoup de systèmes décentralisés dépensent encore énormément de puissance pour le consensus et la sécurité, et leurs mécanismes d’incitation favorisent souvent le capital plutôt que la contribution réelle en calcul. Cela décourage les fournisseurs de matériel et ralentit l’innovation au niveau de l’infrastructure.
C’est ici que notre réflexion commence à diverger. Nous ne partons pas d’une position idéologique, ni pour s’opposer aux acteurs centralisés. Nous partons d’une question plus pragmatique : si l’efficacité, l’accès et la contribution pouvaient être alignés plutôt que conflictuels, à quoi ressemblerait l’infrastructure de l’IA ?
Cette question nous mène à un modèle : la majorité de la puissance de calcul est utilisée pour de véritables tâches d’IA, plutôt que pour des coûts systémiques ; le pouvoir de participation et de gouvernance est déterminé par des contributions vérifiées en calcul, et non par le capital ; l’accès aux ressources GPU mondiales est conçu comme étant sans permission. En pratique, ces hypothèses sont constamment mises à l’épreuve par des discussions ouvertes, en collaboration avec des opérateurs GPU, des développeurs et des chercheurs — par exemple dans notre communauté Discord.
L’IA n’a jamais été qu’un logiciel. Elle a toujours été une infrastructure. Et le choix de cette infrastructure détermine souvent le cap de développement social sur plusieurs décennies. Placer cette infrastructure sous le contrôle de quelques entreprises ou États n’est pas un résultat technique neutre, mais une décision structurelle aux conséquences économiques et géopolitiques à long terme. Si l’intelligence doit devenir riche, alors l’infrastructure qui la soutient doit dès le départ être conçue pour la « richesse ».
Les véritables critères de succès de l’IA décentralisée
Le principal défi réside dans le fait que vous ne vous battez pas contre des personnes, mais contre des « hypothèses par défaut ».
Les communautés technologiques dominantes privilégient souvent des gains à court terme : rapidité, efficacité du capital, contrôle centralisé, et mise à l’échelle par intégration. Ces choix sont rationnels localement, mais une fois devenus la norme, ils sont rarement remis en question. Les remettre en cause, c’est parler une autre langue — pas parce que les idées sont extrêmes, mais parce qu’elles touchent à des structures d’incitation déjà établies dans de nombreuses entreprises, stratégies et professions.
Le moment est aussi un défi. Les systèmes centralisés apparaissent souvent très performants avant que leurs coûts à long terme ne deviennent visibles. Bien que les investissements massifs et les dépenses d’infrastructure soient évidents, les coûts plus profonds — dépendance accrue, perte de flexibilité, concentration du pouvoir de fixation des prix chez quelques fournisseurs, et difficulté à changer de cap une fois profondément intégrés — ne se révèlent qu’avec le temps.
Pour nous, le succès ne consiste pas à gagner une controverse ou à supplanter les acteurs existants. Il est beaucoup plus discret : lorsque l’infrastructure décentralisée cesse d’être une déclaration, pour devenir une option ordinaire, utilisée non pas parce qu’on croit en la décentralisation, mais parce qu’elle est la solution la plus pratique.
Au final, le vrai succès, c’est quand tout le discours change. Quand la question n’est plus « l’IA doit-elle être centralisée ? », mais « pourquoi avons-nous cru qu’elle devait l’être ? ». À ce moment-là, les convictions ne nécessitent plus d’être explicitement remises en question, elles évoluent naturellement.
Comment les entreprises choisissent-elles entre centralisation et décentralisation ?
L’infrastructure IA n’est plus seulement une question technique, c’est une dépendance stratégique.
Pour une entreprise, une infrastructure centralisée crée un verrouillage difficile à inverser. Une fois que des systèmes clés dépendent de quelques fournisseurs, le contrôle se déplace progressivement du utilisateur vers le propriétaire de l’infrastructure. Avec le temps, cela influence les prix, l’accès, la vitesse d’innovation, et la gamme de stratégies possibles.
Le problème pour l’entreprise, c’est la flexibilité stratégique. Si l’infrastructure centralisée peut fonctionner au début, elle tend à se rigidifier en dépendance à long terme. Les coûts deviennent difficiles à maîtriser, les alternatives difficiles à adopter, et changer d’architecture à grande échelle devient de plus en plus coûteux.
Le moment critique est souvent plus tôt qu’on ne le pense. La décision d’infrastructure est souvent prise avant que ses conséquences ne soient pleinement visibles. Quand l’IA passe du stade expérimental à une infrastructure quotidienne, changer l’architecture sous-jacente devient exponentiellement plus coûteux. La vraie décision n’est pas quand le système centralisé échoue, mais quand il fonctionne encore bien. Explorer tôt des alternatives décentralisées permet de garder le contrôle ; attendre, c’est souvent laisser le choix se faire tout seul.
Et si l’on dépend déjà d’une infrastructure centralisée, est-il trop tard ?
Rarement « trop tard », mais la difficulté augmente exponentiellement avec le temps.
Une fois que la majorité des systèmes reposent sur une infrastructure centralisée, le défi n’est plus technique, mais institutionnel. Les workflows, incitations, budgets, réglementations, et même la formation des talents, finissent par supposer que la centralisation est la norme. À ce stade, changer ne consiste plus seulement à migrer l’infrastructure, mais à réapprendre des habitudes, des contrats et des modes de pensée profondément ancrés dans l’organisation.
Les études sur le verrouillage infrastructurel confirment cela. Les analyses sectorielles montrent que, après plusieurs années d’utilisation dans un environnement cloud centralisé, le coût de transition augmente rapidement, et pas seulement linéairement. Cette croissance provient de contrats à long terme, de cadres réglementaires, de processus internes profondément intégrés, et d’une main-d’œuvre hautement spécialisée. L’OCDE souligne aussi que les pays et organisations qui n’ont pas accédé tôt à la puissance de calcul IA accumulent avec le temps un désavantage croissant, perdant non seulement en compétitivité, mais aussi en capacité de choisir d’autres modèles d’infrastructure.
Par ailleurs, l’histoire montre que la transition vers une nouvelle infrastructure ne se fait pas en un seul coup. Elle commence souvent à la marge. De nouveaux cas d’usage, de nouveaux acteurs, ou de nouvelles contraintes créent des points de pression où la centralisation devient insuffisante — par exemple, en raison de coûts trop élevés, de lenteurs, de limitations ou de vulnérabilités. C’est souvent là que des alternatives deviennent cruciales.
Avec le temps, ce qui est réellement érodé, c’est le « pouvoir de choix ». Plus la domination d’une infrastructure centralisée dure, plus la capacité à choisir autre chose diminue.
Les dépendances se solidifient, et la décentralisation devient une correction passive, plus coûteuse, plus complexe, et plus difficile à contrôler.
Le vrai risque n’est donc pas d’être « trop tard », mais d’attendre que la décentralisation devienne impossible, poussée par l’échec systémique. Explorer tôt, même en parallèle avec une infrastructure centralisée, permet de garder une marge de manœuvre et d’influencer activement le résultat, plutôt que de subir une contrainte sous la pression.
Pour la prochaine génération, l’architecture de l’IA déterminera la répartition des opportunités
Les générations futures doivent comprendre que la technologie ne devient pas neutre simplement parce qu’elle devient avancée.
Chaque génération hérite des choix d’infrastructure faits avant elle, souvent sans réaliser que ces choix étaient délibérés, et non une fatalité. Pour elles, l’IA sera aussi naturelle que l’électricité ou Internet aujourd’hui. C’est pourquoi l’architecture fondamentale est si cruciale : elle ne détermine pas seulement ce qui est possible, mais aussi pour qui c’est possible.
Les générations futures doivent savoir que l’accès à l’intelligence peut être organisé de manières radicalement différentes. Il peut être considéré comme une infrastructure partagée : ouverte, riche, difficile à monopoliser. Ou bien, il peut être cloisonné, tarifé, contrôlé, même si cela semble pratique et efficace à court terme. Ces deux chemins peuvent produire des avancées technologiques impressionnantes, mais seul l’un d’eux peut préserver la liberté, la résilience et la véritable diversité à long terme.
Ils doivent aussi comprendre que la centralisation arrive souvent insidieusement. Pas par contrainte, mais par commodité. Les compromis initiaux paraissent faibles : coûts légèrement inférieurs, déploiement plus rapide, coordination plus simple. Mais les conséquences apparaissent plus tard — quand changer de cap devient coûteux, voire impossible.
Il est également essentiel de réaliser que l’infrastructure influence directement la mobilité sociale. Des systèmes apparemment neutres sur le plan technologique peuvent réduire ou renforcer les inégalités, en modifiant les points de départ ou en verrouillant ces inégalités sur plusieurs décennies. Comme vous le savez peut-être, c’est un sujet qui nous tient à cœur. La façon dont l’IA est déployée aujourd’hui ne résout pas ce problème, elle peut même l’aggraver. En ce sens, le choix de l’architecture ne concerne pas seulement l’efficacité, mais aussi qui a réellement la possibilité d’expérimenter, de construire et de façonner l’avenir.
Plus important encore, la prochaine génération doit comprendre que ces systèmes sont toujours conçus par l’humain. Ce ne sont pas le destin, le marché ou la machine qui décident. Questionner les hypothèses par défaut, comprendre qui en bénéficie, et préserver le pouvoir de choix, ce n’est pas résister au progrès, mais en faire une condition pour qu’il reste ouvert.
Pourquoi partager ces réflexions sur Unlockit ?
Unlockit apparaît comme un espace de discussion où le dialogue ne tourne pas autour de la spéculation, des annonces ou des prédictions, mais sur les raisons pour lesquelles les gens font certains choix. C’est important pour nous. Notre récit ne concerne pas un projet ou une technologie spécifique, mais la détection précoce de schémas structurels, et la décision de ne pas les considérer comme inévitables.
Depuis des années, nous opérons au sein des systèmes dominants : création d’entreprises, investissements, collaborations avec de grandes organisations, et bénéfices issus de l’infrastructure centralisée. Nous comprenons leur fonctionnement de l’intérieur. À un moment donné, nous avons réalisé que répéter ces structures en espérant des résultats différents ne mène souvent à rien de nouveau. Plutôt que de rester silencieux ou de présenter cela comme une réussite, nous avons choisi de partager cette prise de conscience.
Nous sommes aussi ici pour réfléchir et partager des expériences concrètes, qui ont une portée réelle pour différents acteurs présents. Pour les entrepreneurs, ces questions touchent au contrôle de l’infrastructure, à la dépendance vis-à-vis des fournisseurs, et à la capacité d’étendre l’échelle sans perdre en flexibilité. Pour les investisseurs, elles concernent les risques à long terme, le verrouillage infrastructurel, et quels modèles peuvent réellement créer une valeur durable. Pour les dirigeants et techniciens, il s’agit de coûts, de fiabilité, de contraintes réglementaires, et de liberté stratégique dans un environnement en rapide évolution.
Nous souhaitons partager une voie alternative, déjà expérimentée : pas une réponse universelle, mais une façon différente de penser la construction d’une infrastructure IA moins dépendante, plus transparente, et avec un pouvoir de choix à long terme accru. Et nous voulons aussi entendre ceux qui prennent des décisions concrètes dans le monde des affaires, du capital et des institutions.
Nous croyons que ces discussions ne doivent pas rester confinées à un cercle restreint. Quand les décisions d’infrastructure ne sont plus discutées publiquement, elles deviennent silencieusement la norme. Unlockit offre un espace pour réfléchir avant que ces choix ne deviennent irréversibles, rendant la participation à cette conversation essentielle.
Participer à Unlockit, ce n’est pas seulement expliquer ce que nous faisons, mais aussi pourquoi il reste crucial de remettre en question les hypothèses par défaut, surtout à une époque où la technologie semble avancer rapidement, puissamment, et inévitablement. C’est aussi écouter ceux qui façonnent l’avenir des systèmes commerciaux, technologiques et sociaux.