Fondateur de a16z : À l'ère de l'Agent, ce qui est vraiment important a changé

Original video title : Marc Andreessen introspects on Death of the Browser, Pi + OpenClaw, and Why「This Time Is Different」 Source du vidéo : a16z, Latent Space Traduction : FuturePulse

Source du signal :

Voici la dernière interview de Marc Andreessen, fondateur de a16z, dans le podcast Latent Space.

Il est un entrepreneur internet américain renommé, l’une des figures clés du développement précoce d’Internet ; après avoir fondé a16z, il est devenu une figure emblématique des investisseurs de la Silicon Valley.

Toute la conversation tourne autour de l’histoire du développement de l’IA et des tendances actuelles, ce qui vaut vraiment la peine d’être lu.

1. Cette vague d’IA n’est pas apparue de nulle part, mais est la première à « commencer à vraiment travailler » après 80 ans de course technologique

· Cette vague d’IA n’est pas apparue de nulle part, mais est la première après une course technologique de 80 ans

· Marc Andreessen qualifie directement la situation actuelle d’« overnight success de 80 ans », ce qui signifie que ce qui semble soudainement exploser dans l’œil du public est en réalité le résultat de décennies de réserve technologique concentrée.

· Il remonte cette piste technologique jusqu’aux premières recherches sur les réseaux neuronaux, en soulignant que l’industrie accepte désormais que « les réseaux neuronaux sont la bonne architecture ».

· Selon lui, les points clés ne sont pas un moment unique, mais une série d’étapes empilées : AlexNet, Transformer, ChatGPT, modèles de raisonnement, puis agents et auto-amélioration.

· Il insiste particulièrement sur le fait que cette fois, ce n’est pas seulement la génération de texte qui s’améliore, mais quatre catégories de fonctionnalités apparaissent simultanément : LLMs, raisonnement, codage, ainsi que agents / auto-amélioration récursive.

· La raison pour laquelle il pense que « this time is different » n’est pas parce que le récit est plus séduisant, mais parce que ces capacités commencent à fonctionner dans des tâches réelles.

2. L’architecture agent représentée par Pi et OpenClaw est une évolution plus profonde que celle des chatbots, dans la structure logicielle

· Il décrit l’agent de façon très concrète : essentiellement « LLM + shell + système de fichiers + markdown + cron/boucle ». Dans cette structure, le LLM est le cœur du raisonnement et de la génération, le shell fournit l’environnement d’exécution, le système de fichiers conserve l’état, markdown rend l’état lisible, et cron/boucle permet de réveiller périodiquement et de faire avancer les tâches.

· Il considère que l’importance de cette combinaison réside dans le fait que, en dehors du modèle lui-même, tous les autres composants sont des éléments déjà matures, compréhensibles et réutilisables dans le monde logiciel.

· L’état de l’agent est stocké dans des fichiers, ce qui permet de le transférer entre modèles et environnements d’exécution ; le modèle sous-jacent peut être remplacé, mais la mémoire et l’état restent conservés.

· Il insiste à plusieurs reprises sur l’introspection : l’agent connaît ses fichiers, peut lire son propre état, voire réécrire ses fichiers et ses fonctionnalités, avançant vers « s’étendre lui-même ».

· Selon lui, la véritable avancée ne se limite pas à « répondre avec un modèle », mais à ce que l’agent utilise la chaîne d’outils Unix existante pour exploiter tout le potentiel de l’ordinateur.

3. L’ère des navigateurs, des interfaces graphiques traditionnelles et des « logiciels pointés par la main » sera progressivement remplacée par une interaction agent-first

· Marc Andreessen a clairement dit que, dans le futur, « vous n’aurez peut-être plus besoin d’interface utilisateur ».

· Il précise que les principaux utilisateurs des logiciels à l’avenir ne seront pas des humains, mais « d’autres bots ».

· Cela signifie que de nombreuses interfaces conçues aujourd’hui pour que l’humain clique, navigue, remplisse des formulaires, deviendront des couches d’appel derrière l’agent.

· Dans ce monde, l’humain sera plus comme celui qui définit l’objectif : il indique ce qu’il veut, puis l’agent appelle les services, manipule les logiciels, et accomplit le processus.

· Il relie cette évolution à un avenir logiciel plus large : des logiciels de haute qualité deviendront de plus en plus « abondants », ne seront plus l’apanage de quelques ingénieurs les créant manuellement.

· Il pense aussi que l’importance des langages de programmation diminuera ; les modèles coderont dans plusieurs langages, se traduiront entre eux, et à l’avenir, l’intérêt des humains sera davantage d’expliquer pourquoi l’IA organise le code ainsi, plutôt que de s’accrocher à un langage spécifique.

· Il évoque même une direction plus radicale : conceptuellement, l’IA pourrait non seulement produire du code, mais aussi générer directement du code binaire ou des poids de modèles.

4. La période d’investissement dans l’IA ressemble à celle de la bulle internet de 2000, mais la structure fondamentale de l’offre et de la demande est différente

· Il rappelle qu’en 2000, l’effondrement n’était pas tant dû à l’échec d’Internet, mais à une surconstruction des infrastructures de télécommunications et de bande passante, avec des fibres optiques et des centres de données déployés en avance, suivie d’une longue période de digestion.

· Il pense qu’aujourd’hui, on peut aussi craindre une « surconstruction », mais que les principaux investisseurs sont aujourd’hui de grandes entreprises comme Microsoft, Amazon, Google, qui disposent de liquidités abondantes, plutôt que des acteurs fragiles fortement endettés.

· Il souligne que dès qu’un investissement permettant de faire fonctionner des GPU est réalisé, il se convertit rapidement en revenus, ce qui diffère de la situation de 2000 où beaucoup de capacité était inutilisée.

· Il insiste aussi sur le fait que nous utilisons actuellement une version « sandbagged » de la technologie : en raison d’un manque d’approvisionnement en GPU, mémoire, centres de données, le potentiel des modèles n’est pas encore pleinement exploité.

· Selon lui, dans les années à venir, les contraintes ne seront pas seulement liées aux GPU, mais aussi aux CPU, à la mémoire, au réseau, et à l’écosystème global des puces.

· Il met en parallèle les lois d’échelle de l’IA avec la loi de Moore, estimant qu’elles ne décrivent pas seulement une tendance, mais stimulent aussi la synergie entre capital, ingénierie et industrie.

· Il mentionne un phénomène contre-intuitif mais important : avec l’accélération de l’optimisation logicielle, certains anciens chips pourraient devenir plus économiquement viables que lors de leur achat initial.

5. L’open source, l’inférence en périphérie et l’exécution locale ne sont pas des détails, mais une partie intégrante de la compétition en IA

· Marc Andreessen considère que l’open source est crucial, non seulement parce que c’est gratuit, mais parce que cela permet au monde entier d’apprendre comment il est fait.

· Il décrit la publication open source de projets comme DeepSeek comme un « cadeau au monde », car le code et les papiers diffusent rapidement la connaissance, élevant le niveau général de l’industrie.

· Selon lui, l’open source n’est pas seulement un choix technique, mais aussi une stratégie géopolitique et de marché : différents pays et entreprises adopteront des stratégies d’ouverture variées en fonction de leurs contraintes commerciales et de leurs objectifs d’influence.

· Il insiste aussi sur l’importance de l’inférence en périphérie (« Edge inference ») : dans les années à venir, le coût de l’inférence centralisée pourrait ne pas être suffisant, et de nombreuses applications grand public ne pourront pas supporter des coûts élevés d’inférence cloud à long terme.

· Il évoque un schéma récurrent : des modèles qui semblent « impossibles à faire tourner sur PC » aujourd’hui finissent souvent par pouvoir fonctionner localement en quelques mois.

· Outre le coût, la confiance, la vie privée, la latence et les cas d’usage favorisent aussi l’exécution locale : appareils portables, serrures connectées, dispositifs personnels, qui sont mieux adaptés à une inférence à faible latence et locale.

· Son jugement est très clair : presque tout ce qui contient une puce pourrait à l’avenir embarquer un modèle d’IA.

6. Le vrai défi de l’IA ne réside pas seulement dans la capacité des modèles, mais dans la sécurité, l’identité, la finance, l’organisation et la résistance institutionnelle

· Sur la sécurité, il est très tranchant : presque tous les bugs potentiels seront plus faciles à détecter, ce qui pourrait entraîner à court terme une « grande catastrophe de sécurité informatique ».

· Mais il pense aussi que les agents programmables pourront automatiser la correction des vulnérabilités ; à l’avenir, « protéger un logiciel » pourrait consister à laisser un bot le scanner et le réparer.

· Sur la question de l’identité, il estime que la « preuve de bot » n’est pas viable, car les bots deviendront de plus en plus puissants ; la vraie solution sera la « preuve d’humain », combinant biométrie, cryptographie et divulgation sélective.

· Il évoque aussi un problème souvent ignoré : si les agents doivent agir dans le monde réel, ils auront besoin d’argent, de capacités de paiement, voire d’un compte bancaire, d’une carte ou d’une infrastructure de stablecoins. Sur le plan organisationnel, il reprend le cadre du capitalisme managérial, estimant que l’IA pourrait renforcer la société dirigée par ses fondateurs, car les bots excellent dans la production de rapports, la coordination, la gestion administrative et de nombreuses tâches « managériales ».

· Mais il ne pense pas que la société acceptera rapidement l’IA sans résistance : il cite des exemples comme les licences professionnelles, les syndicats, les grèves de dockers, les administrations publiques, l’éducation K-12, la santé, pour montrer que de nombreux freins institutionnels existent.

· Sa conclusion est que, tant pour les utopistes que pour les apocalyptiques de l’IA, ils oublient un point essentiel : dès que la technologie devient possible, cela ne signifie pas que 8 milliards de personnes changeront immédiatement.

Lien du vidéo

Cliquez pour découvrir les opportunités chez BlockBeats

Rejoignez la communauté officielle de BlockBeats :

Groupe Telegram : https://t.me/theblockbeats

Groupe de discussion Telegram : https://t.me/BlockBeats_App

Compte officiel Twitter : https://twitter.com/BlockBeatsAsia

PI0,3%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler