Les plans de dépenses d'OpenAI viennent d'exploser. $115 milliards. C'est le nouveau prix prévu pour le développement de ChatGPT au cours des cinq prochaines années. Des chiffres fous. Cela représente une augmentation de $80 milliards par rapport à ce qu'ils pensaient initialement.
Les informations rapportent qu'OpenAI se classe désormais parmi les plus gros consommateurs de cloud computing au monde. Pas étonnant que les coûts soient en pleine explosion. Ils envisagent de dépenser $8 milliards rien qu'en 2025. Comparez cela à leur estimation initiale de 1,5 milliard de dollars. Assez choquant.
Leur prévision pour 2026 ? Doubled to $17 billion. Ensuite, les choses deviennent vraiment folles - $35 billion en 2027 et $45 billion l'année suivante. L'argent semble sans objet.
OpenAI n'accepte pas seulement ces coûts. La startup de la Silicon Valley prévoit de fabriquer ses propres puces et installations de centres de données, selon le Financial Times. Il n'est pas tout à fait clair si cela fonctionnera, mais cela pourrait leur donner plus de contrôle tout en réduisant les dépenses.
Ils se sont associés à Broadcom pour leur premier lot de puces, prévu pour mi-2026. Celles-ci ne sont pas destinées à la vente. Ils les gardent toutes pour eux.
Hock Tan, le PDG de Broadcom, a mentionné avoir décroché un client mystérieux avec $10 milliards de commandes. Plus tard, il a noté avec désinvolture l'ajout d'un quatrième client à leur division de puces AI. On dirait OpenAI.
Les projets de puces d'OpenAI vont au-delà de Broadcom. Ils ont aussi quelque chose en préparation avec Taiwan Semiconductor. Cela a commencé il y a environ un an. Ils cherchent également à mélanger des puces AMD avec leur matériel Nvidia. Diversification.
En février, OpenAI semblait désireux de réduire sa dépendance à Nvidia. Ils prévoyaient de finaliser un nouveau design de puce dans quelques mois avant de l'expédier à TSMC. Ils semblent sérieux quant à l'augmentation de la production l'année prochaine.
Certains observateurs de l'industrie pensent que la fabrication de leurs propres puces pourrait donner à OpenAI un avantage lors des négociations avec des fournisseurs comme Nvidia. Richard Ho dirige leur équipe interne, visant à créer des processeurs de plus en plus avancés à chaque itération.
Au-delà des puces, OpenAI a lancé un immense centre de données de 4,5 gigawatts avec Oracle en juillet. Cela s'inscrit dans leur ambitieux projet StarGate de $500 milliards, en partie soutenu par SoftBank. Ils ont également conclu un accord avec Google Cloud pour plus de puissance de calcul. Ils ne plaisantent pas.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI pourrait dépenser une somme incroyable de $115B pour ChatGPT jusqu'en 2029
Les plans de dépenses d'OpenAI viennent d'exploser. $115 milliards. C'est le nouveau prix prévu pour le développement de ChatGPT au cours des cinq prochaines années. Des chiffres fous. Cela représente une augmentation de $80 milliards par rapport à ce qu'ils pensaient initialement.
Les informations rapportent qu'OpenAI se classe désormais parmi les plus gros consommateurs de cloud computing au monde. Pas étonnant que les coûts soient en pleine explosion. Ils envisagent de dépenser $8 milliards rien qu'en 2025. Comparez cela à leur estimation initiale de 1,5 milliard de dollars. Assez choquant.
Leur prévision pour 2026 ? Doubled to $17 billion. Ensuite, les choses deviennent vraiment folles - $35 billion en 2027 et $45 billion l'année suivante. L'argent semble sans objet.
OpenAI n'accepte pas seulement ces coûts. La startup de la Silicon Valley prévoit de fabriquer ses propres puces et installations de centres de données, selon le Financial Times. Il n'est pas tout à fait clair si cela fonctionnera, mais cela pourrait leur donner plus de contrôle tout en réduisant les dépenses.
Ils se sont associés à Broadcom pour leur premier lot de puces, prévu pour mi-2026. Celles-ci ne sont pas destinées à la vente. Ils les gardent toutes pour eux.
Hock Tan, le PDG de Broadcom, a mentionné avoir décroché un client mystérieux avec $10 milliards de commandes. Plus tard, il a noté avec désinvolture l'ajout d'un quatrième client à leur division de puces AI. On dirait OpenAI.
Les projets de puces d'OpenAI vont au-delà de Broadcom. Ils ont aussi quelque chose en préparation avec Taiwan Semiconductor. Cela a commencé il y a environ un an. Ils cherchent également à mélanger des puces AMD avec leur matériel Nvidia. Diversification.
En février, OpenAI semblait désireux de réduire sa dépendance à Nvidia. Ils prévoyaient de finaliser un nouveau design de puce dans quelques mois avant de l'expédier à TSMC. Ils semblent sérieux quant à l'augmentation de la production l'année prochaine.
Certains observateurs de l'industrie pensent que la fabrication de leurs propres puces pourrait donner à OpenAI un avantage lors des négociations avec des fournisseurs comme Nvidia. Richard Ho dirige leur équipe interne, visant à créer des processeurs de plus en plus avancés à chaque itération.
Au-delà des puces, OpenAI a lancé un immense centre de données de 4,5 gigawatts avec Oracle en juillet. Cela s'inscrit dans leur ambitieux projet StarGate de $500 milliards, en partie soutenu par SoftBank. Ils ont également conclu un accord avec Google Cloud pour plus de puissance de calcul. Ils ne plaisantent pas.