Le co-fondateur d'OpenAI affirme que $110 milliard ne suffit toujours pas à répondre à la demande, le pré-entraînement se déplace vers une optimisation conjointe des coûts

robot
Création du résumé en cours

Selon le suivi de 1M AI News, le cofondateur d’OpenAI, Greg Brockman, a réfléchi, lors d’une interview, à l’ampleur des progrès attendus des capacités de programmation de l’IA d’ici décembre 2025. Il a utilisé un prompt de test qu’il avait gardé pendant des années pour mesurer l’avancement : demander à l’IA de construire un site web qui lui avait pris des mois à réaliser quand il apprenait à programmer. Tout au long de 2025, cette tâche nécessitait plusieurs prompts et environ quatre heures pour être accomplie ; d’ici décembre, elle pouvait être réalisée avec un seul prompt, avec une qualité élevée. Il a déclaré que le nouveau modèle permettait à l’IA de passer de « être capable d’accomplir environ 20% des tâches » à « environ 80% », un changement qui oblige tout le monde à « réorganiser les flux de travail autour de l’IA ». Concernant l’allocation des 110 milliards de dollars de financement, Brockman a comparé la puissance de calcul à « l’embauche de commerciaux » : tant que le produit dispose d’un canal de vente évolutif, embaucher davantage de commerciaux peut générer davantage de revenus. La puissance de calcul n’est pas un centre de coûts, mais un centre de revenus. Il a rappelé une conversation avec son équipe à la veille de la sortie de ChatGPT : « Ils ont demandé : “De quelle puissance de calcul devons-nous acheter ?” J’ai répondu : “Tout.” Ils ont répliqué : “Non, non, non, sérieusement, de combien faut-il acheter ?” J’ai répondu : “Peu importe comment on s’y prend, on ne pourra pas suivre la demande.” » Ce jugement reste vrai aujourd’hui, et l’achat de puissance de calcul doit être verrouillé 18 à 24 mois à l’avance. Quant à la manière d’exploiter cette puissance de calcul, Brockman a révélé qu’OpenAI ne poursuit plus uniquement la recherche de la plus grande échelle de pré-entraînement, mais optimise conjointement les capacités de pré-entraînement et les coûts d’inférence : « Vous n’avez pas nécessairement besoin que ce soit aussi grand que possible, parce qu’il faut aussi tenir compte des nombreux cas d’utilisation en aval de l’inférence ; ce que vous voulez vraiment, c’est la solution optimale d’intelligence multipliée par le coût. » Cependant, il s’est fermement opposé à l’idée que « le pré-entraînement n’est plus important », estimant que plus le modèle de base est intelligent, plus l’efficacité des étapes ultérieures de renforcement et d’inférence est élevée, et qu’il existe encore un « besoin absolu » de GPU Nvidia pour soutenir un entraînement centralisé à grande échelle.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler