Karpathy 4/30 À Sequoia Ascent, il a résumé les explications AI les plus utiles de cette année en trois points. Après lecture, votre façon de voir l'IA changera.


1. L'IA n'est pas simplement "plus rapide", c'est une nouvelle paradigm
Les deux dernières années, tout le monde parlait de l'IA qui accélère les choses.
Karpathy dit que c'est une mauvaise interprétation.
Voici 3 exemples de l'IA qui redéfinit les tâches :
- menugen : entrée-sortie d'images, pas de code traditionnel, toute l'application est avalée par le LLM
- compétences .md : installer un logiciel sans écrire de script .sh, écrire une explication en chinois/anglais pour que le LLM comprenne votre environnement et installe
- base de connaissances LLM : ce que le code traditionnel ne peut pas faire — transformer tout texte non structuré dans n'importe quel format en connaissances calculables
La première catégorie est "réduire le code", la deuxième "utiliser l'anglais comme code",
la troisième "ce que le code traditionnel ne peut pas faire".
2. Jagged Edge — pourquoi l'IA est à la fois polyvalente et stupide
Le point central.
Pourquoi le même IA peut refactoriser 100 000 lignes de code,
et vous conseiller d'aller faire laver votre voiture ? Ce n'est pas une erreur du modèle.
Karpathy dit :
"You're either on the rails of the RL circuits and flying,
or off-roading in the jungle with a machete."
Soit vous volez dans le cercle d'entraînement RL,
soit vous tranchez dans la jungle avec une machette.
Deux facteurs déterminent si une tâche entre dans la distribution d'entraînement :
verifiability (résultat vérifiable) + economics (valeur, frontièredes investissements RL)
Compétition mathématique / programmation / démonstration de théorèmes :
Haute vérifiabilité + TAM élevé → dans le cercle → quand vous l'utilisez, vous volez
Conseils pour la vie quotidienne / langues rares / tâches longues :
TAM faible → pas dans RL → vous tranchez dans la jungle
Ce n'est pas une narration linéaire "l'IA devient de plus en plus forte".
C'est une frontière inégale, vous devez savoir de quel côté vous vous situez.
3. Économie native à l'agent
Dernier point : à l'avenir, le logiciel sera décomposé en
capteur (entrée) + actionneur (exécution) + logique (raisonnement)
La couche logique sera entièrement exécutée sur le LLM,
les capteurs / actionneurs utilisant du code traditionnel comme co-processeurs.
Signification : rendre l'information la plus lisible possible pour le LLM,
c'est la contrainte centrale de la conception logicielle à venir.
---
Ces trois points forment un cadre cohérent :
Le nouveau paradigme vous permet de voir ce que l'IA peut faire aujourd'hui,
Jagged Edge vous aide à repérer où l'IA ne peut pas encore aller,
l'économie native à l'agent vous montre comment envelopper le reste pour l'IA.
Ce n'est pas "l'IA devient de plus en plus forte".
C'est "quelles tâches sont dans le cercle, lesquelles dans la jungle".
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler