« Combien de puissance de calcul à acheter ? Tout » : Le co-fondateur d'OpenAI affirme que 1100 milliards de dollars ne suffisent toujours pas à répondre à la demande, la pré-formation s'oriente désormais vers une optimisation conjointe des coûts

robot
Création du résumé en cours

Selon le suivi de 1M AI News, le cofondateur d’OpenAI, Greg Brockman, a, lors d’une interview, évoqué la progression spectaculaire des capacités de programmation de l’IA en décembre 2025. Il a utilisé, pour mesurer l’avancée, un test qu’il conserve depuis des années : faire construire par l’IA un site web qu’il avait, à l’époque, mis plusieurs mois à apprendre à programmer et à terminer. Sur l’ensemble de l’année 2025, cette tâche exigeait plusieurs cycles de prompts et environ quatre heures pour être correctement réalisée ; en décembre, un seul prompt suffit, et la qualité était excellente. Il affirme que son nouveau modèle permet à l’IA de passer de « capable de réaliser environ 20 % des tâches » à « environ 80 % », et que ce saut a contraint tout le monde à « réorganiser impérativement ses processus de travail autour de l’IA ».

Concernant l’utilisation des 110 milliards de dollars de financement, Brockman compare la puissance de calcul à « l’embauche de commerciaux » : tant que le produit dispose de canaux de vente capables d’être mis à l’échelle, embaucher davantage de commerciaux génère davantage de revenus. La puissance de calcul n’est pas un centre de coûts, mais un centre de revenus. Il se remémore une discussion avec son équipe juste avant la publication de ChatGPT : « Ils ont demandé : “De combien de puissance de calcul avons-nous besoin ?” J’ai dit : “Toute.” Ils ont dit : “Non non non, sérieusement, de combien exactement ?” J’ai dit : “Peu importe comment on construit, on ne pourra pas suivre la demande.” » Ce constat reste valable à ce jour, et l’achat de puissance de calcul doit être verrouillé 18 à 24 mois à l’avance.

Au sujet de la manière d’utiliser cette puissance de calcul, Brockman révèle qu’OpenAI ne cherche plus à tout prix à maximiser la taille de l’entraînement préalable, mais qu’elle fait de la capacité de pré-entraînement et du coût d’inférence des objectifs d’optimisation conjointe : « Vous n’avez pas forcément besoin d’être aussi grand que possible, parce que vous devez aussi tenir compte de l’importante quantité de scénarios d’utilisation en aval, où il y a beaucoup d’inférence. Ce que vous voulez vraiment, c’est la solution optimale en termes d’intelligence multipliée par le coût. » Mais il s’oppose clairement à l’idée que « le pré-entraînement n’est plus important », estimant qu’un modèle de base plus intelligent améliore l’efficacité des étapes ultérieures d’apprentissage par renforcement et d’inférence et que, par conséquent, il « faut absolument » encore des GPU Nvidia pour soutenir un entraînement centralisé à grande échelle.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler