DeepInfra, levée de fonds de 107 millions de dollars en série B…… Expansion mondiale de l'infrastructure d'inférence AI

robot
Création du résumé en cours

Entreprise de cloud computing spécialisée dans le raisonnement en intelligence artificielle DeepInfra obtient 107 millions de dollars lors de la levée de fonds de série B, ce qui favorisera l’expansion mondiale des équipements. En calculant en won coréen, cela représente environ 158,192,50 millions de won. À l’aube de la transition de l’IA générative, dépassant la phase expérimentale, vers une “IA agentielle”, DeepInfra prévoit de dépasser les limites actuelles du cloud computing généraliste.

Ce tour d’investissement est dirigé par 500 Global et l’ancien ingénieur de Google Cloud, George Harrick. De plus, Nvidia, Samsung Next, la division d’investissement de Samsung Electronics, Supermicro, A.Capital Ventures, Crescent Cove, Peliciis, Peak6, Upper90, etc., ont également participé. Fait notable, les principaux investisseurs ont également mis en avant le potentiel de croissance du marché des infrastructures IA.

DeepInfra est une entreprise spécialisée dans la phase de “raisonnement” des charges de travail en IA. Le raisonnement désigne la phase où un modèle d’IA, après entraînement, traite les requêtes des utilisateurs dans un environnement de service réel. La société estime que les plateformes cloud existantes ne sont pas conçues en tenant compte de cette demande. Elle explique que, notamment pour l’IA agentielle, la réalisation d’une tâche nécessite de dizaines à centaines d’appels de modèles, ce qui peut entraîner des délais et des coûts très instables.

Pour résoudre ce problème, DeepInfra indique qu’elle développe une “usine à jetons” qui considère le raisonnement comme une étape centrale plutôt qu’un service additionnel. Fondée par une équipe d’ingénieurs ayant créé l’application de messagerie instantanée “imo”, qui a dépassé les 200 millions d’utilisateurs dans le monde, la stratégie consiste à transférer l’expérience opérationnelle de systèmes distribués à grande échelle vers l’infrastructure de raisonnement IA.

Contrairement aux opérateurs actuels qui dépendent de la location de capacité de serveurs inactifs “Spot”, DeepInfra exploite ses propres matériels dans huit centres de données aux États-Unis. Ils décrivent qu’en contrôlant toute la pile, du GPU à l’API, ils améliorent l’efficacité. La société affirme qu’en utilisant la plateforme de raisonnement distribuée “Dynamo” de Nvidia, ainsi que les GPU Blackwell et Vera Rubin, elle peut offrir jusqu’à 20 fois plus d’efficacité en coûts pour le raisonnement.

Particulièrement, DeepInfra considère que l’IA agentielle consomme beaucoup plus de ressources que les chatbots génératifs existants. Actuellement, plus de 30 % du trafic de jetons généré sur leur plateforme provient d’agents autonomes, ce qui confirme cette tendance. Cela indique que la demande de raisonnement IA dépasse la simple réponse aux chatbots, évoluant rapidement vers l’automatisation des processus métier.

Actuellement, la plateforme DeepInfra supporte plus de 190 modèles IA open source, y compris la série Nvidia Nemotron. Par ailleurs, pour les entreprises soucieuses de l’envoi d’informations sensibles vers le cloud externe, une politique de “zéro conservation des données” est proposée. Cela est interprété comme une volonté de créer un avantage différenciateur dans un marché d’IA d’entreprise où la sécurité, le coût et la rapidité sont tous pris en compte.

Nikolai Borisov, co-fondateur et PDG, déclare qu’il y a quatre ans, en créant la société, il pensait que le raisonnement IA deviendrait le cœur des charges de travail en entreprise, et cette prévision s’est aujourd’hui réalisée. Il analyse que les modèles open source rattrapent rapidement les modèles propriétaires à moindre coût pour diffuser l’innovation, et que les systèmes basés sur des agents créent une demande continue et à grande échelle. Il insiste sur le fait que le raisonnement IA ne sera plus une simple couche de traitement, mais deviendra le “goulot d’étranglement” qui définira la majorité des charges de travail IA à l’avenir.

Tony Wang de 500 Global commente que, face à la croissance explosive de la demande de raisonnement IA, les développeurs et ingénieurs ont besoin d’infrastructures plus rapides, plus flexibles et plus stables. Il affirme que l’équipe de DeepInfra a déjà prouvé sa capacité à construire et exploiter des systèmes distribués à l’échelle mondiale, et que l’infrastructure de raisonnement IA orientée objectif deviendra un pilier essentiel pour soutenir la prochaine étape de l’industrie IA.

Ce financement ne se limite pas à une simple collecte de fonds, mais montre que la compétition dans l’infrastructure IA se déplace du domaine de l’entraînement vers celui du raisonnement. Avec la diffusion officielle de l’IA agentielle, la question de traiter rapidement et à faible coût le raisonnement IA devient de plus en plus cruciale pour le marché du cloud computing.

Remarque TP AI : Cet article est un résumé basé sur le modèle linguistique TokenPost.ai. Il peut omettre des contenus principaux ou ne pas refléter fidèlement la réalité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler