Beaucoup de gens discutent actuellement de l'AGI en posant d'abord une question : à quelle distance sommes-nous de l'AGI ?


Mais je pense de plus en plus que la question la plus importante est en réalité de savoir si l'humanité a encore la capacité de décider activement de l'arrivée de l'AGI.
Ma réponse est en fait plutôt pessimiste, car toutes les technologies qui ont réellement changé la structure de la civilisation dans le passé, une fois qu'elles ont été jugées faisables, finissent par être poussées.
L'énergie nucléaire, Internet, Internet mobile, l'IA, il y a de fortes chances que ce soit pareil.
Donc je ne partage pas totalement l'optimisme technologique traditionnel, je suis plutôt un irréversibiliste technologique.
Autrement dit, je pense que l'AGI ne mènera pas forcément à une utopie, mais qu'elle arrivera presque certainement, et peut-être plus rapidement que la plupart des gens ne l'imaginent.
Beaucoup pensent encore que l'AGI est simplement un chatbot plus intelligent que l'humain, mais je crois que continuer à discuter de la définition de l'AGI en 2026 devient de plus en plus insignifiant.
Car ce qui importe vraiment, ce n'est pas de savoir si elle atteint une intelligence générale au niveau philosophique, mais si elle commence à influencer la structure économique réelle.
En fait, cela a déjà commencé : l'IA a commencé à remplacer une partie du travail intellectuel de base.
Elle a commencé à réorganiser la recherche, à influencer le développement logiciel, à changer les méthodes d'éducation.
Je pense que beaucoup sous-estiment l'impact positif potentiel de l'AGI, tout comme ils sous-estiment ses risques.
Le plus sous-estimé dans ses aspects positifs est la démocratisation des ressources cognitives : dans l'histoire, le savoir, la capacité d'analyse et la recherche de haut niveau ont toujours été un privilège réservé à une minorité.
Mais l'IA est en train de rendre ces choses accessibles à tous, permettant à un individu ordinaire de disposer pour la première fois d’un système d’assistance cognitive proche du niveau professionnel.
Mais le risque est tout aussi énorme, car l'AGI a probablement une tendance naturelle à la concentration du pouvoir.
Entraîner les modèles les plus avancés nécessite des capitaux, une puissance de calcul et des données massifs, ce qui signifie que les systèmes d'IA les plus puissants à l'avenir pourraient rester entre les mains de très peu d'organisations à long terme.
Et c’est aussi pour cela que je pense que la cryptomonnaie et la décentralisation deviendront de plus en plus importantes à l’ère de l’AGI.
Car si, à l’avenir, le système cognitif le plus puissant est contrôlé par quelques entreprises, alors la finance ouverte, l’identité ouverte et le calcul décentralisé deviendront des contrepoids importants.
Surtout avec les stablecoins, l’identité sur la chaîne et les réseaux de calcul décentralisés, je pense qu’ils deviendront progressivement la couche d’ouverture dans le monde de l’IA.
Quant à la façon dont une personne devrait se préparer, ma réponse est en fait très simple : il ne faut pas seulement apprendre des outils, mais aussi apprendre à juger.
Car ce qui sera peut-être le plus rare à l’avenir ne sera plus le savoir en soi, mais la capacité à poser les bonnes questions, à filtrer l’information, à construire une cognition indépendante.
Mon cadre personnel a toujours été prudent mais optimiste : je ne pense pas que l’AGI détruira le monde, mais je ne crois pas non plus qu’elle créera automatiquement un monde équitable, la technologie ne fera qu’amplifier les structures humaines existantes.
En réalité, je me pose une question : si à l’avenir chaque personne possède un système d’assistance intelligente quasi infini, alors qu’est-ce qui restera vraiment comme différence entre les individus ?
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé