DeepSeek continue de balayer le monde entier avec une forte intensité. En une semaine seulement, des géants de la technologie étrangers tels que Microsoft Azure et NVIDIA, ainsi que des fournisseurs de cloud chinois tels qu'Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, ont tous annoncé le lancement du grand modèle DeepSeek, attirant davantage d'utilisateurs avec des offres telles que "zéro code" et des prix très bas.
Depuis 2025, DeepSeek a successivement publié les modèles de langage V3, le modèle d'inférence R1 et le modèle multimodal Janus Pro. En raison de ses performances élevées et de ses avantages en termes de coûts, il a attiré l'attention du marché étranger. En tant que l'un des "mécènes" d'OpenAI, le PDG de Microsoft, Nadella, a vivement salué l'innovation de DeepSeek le 29 janvier, tout en faisant de la publicité pour Microsoft lui-même : le modèle DeepSeek-R1 peut être obtenu via la plateforme d'IA Azure AI Foundry et GitHub de Microsoft, et il est promis qu'il fonctionnera à l'avenir sur des ordinateurs équipés de Copilot+.
Le 30 janvier, Nvidia a également annoncé que le site Web des développeurs de Nvidia a inclus le modèle DeepSeek-R1 dans la rubrique "Modèles les plus populaires", et qu'il est disponible dans la version de prévisualisation du service micro-NVIDIA NIM. NVIDIA NIM fait partie du service NVIDIA AI Enterprise Edition, et fournit des conteneurs pour les micro-services d'inférence accélérés par GPU en libre-service, pour un déploiement multi-cloud, dans les centres de données et sur les stations de travail, pour les modèles d'IA pré-entraînés et personnalisés.
Bientôt, les principaux fournisseurs chinois de services cloud sur Internet ont commencé à se connecter activement aux modèles de la série DeepSeek et à rivaliser avec de vraies sommes d'argent.
Le 3 février, Alibaba Cloud a annoncé que la galerie de modèles PAI d'Alibaba Cloud prend en charge le déploiement en un clic des modèles DeepSeek-V3 et R1 sur le cloud. Sur cette plateforme, les utilisateurs peuvent réaliser tout le processus, de l'entraînement au déploiement jusqu'à l'inférence, sans code, simplifier le processus de développement de modèles et offrir une expérience de développement et d'application d'IA plus rapide, plus efficace et plus pratique pour les développeurs et les utilisateurs d'entreprise.
Le même jour, la plateforme intelligente Baidu Cloud Qianfan a également lancé officiellement les modèles DeepSeek-R1 et V3, et a lancé des offres à prix très bas, ainsi que des services gratuits pour une durée limitée. Vous pouvez vous connecter à ModelBuilder de Baidu Cloud Qianfan pour une expérience rapide. En même temps, Baidu intègre sa propre technologie de modélisation, telle que l'intégration du modèle DeepSeek dans la chaîne d'inférence de Qianfan, l'intégration de l'opérateur de sécurité du contenu exclusif de Baidu, et renforce ainsi la sécurité du modèle.
Les journalistes ont appris que de nombreuses entreprises chinoises telles que Huawei Cloud, Tencent Cloud, 360 Cyber Security, Cloud Axis Technology ZStack et d'autres ont déjà intégré le modèle DeepSeek, ce qui signifie que le modèle DeepSeek est devenu presque une norme pour les services de plateforme cloud d'intelligence artificielle.
Alors que DeepSeek « monte en flèche » tout au long du processus, l’industrie des grands modèles d’IA entre progressivement dans le « rallye ».
Le 29 janvier, Ali Tongyi Qianwen a lancé le modèle phare Qwen2.5-Max, qui utilise l'architecture MoE (Expert Mixte) à grande échelle, basée sur plus de 20 billions de tokens (unités lexicales) de données pré-entraînées. L'équipe Ali a déclaré que ce modèle présente des performances comparables voire supérieures à DeepSeek V3, GPT-4 et Claude-3.5-Sonnet. Avec l'amélioration continue de la technologie de post-entraînement, la prochaine version devrait atteindre un niveau supérieur.
Le 1er février, OpenAI a lancé o3-mini, le premier modèle d'inférence de petite taille d'OpenAI qui prend en charge les fonctionnalités demandées par les développeurs. Il offre des avantages tels que des coûts réduits, une faible latence et des fonctionnalités telles que les appels de fonctions, le streaming de données et les sorties structurées. Il prend également en charge l'intégration avec la fonction de recherche, ce qui permet de fournir les réponses les plus récentes et de lier des ressources en ligne pertinentes. Après des tests effectués par certains développeurs, il a été constaté que les performances de l'OpenAI o3-mini n'étaient pas nettement meilleures que celles du DeepSeek R1, et que certaines parties étaient encore dépassées par le R1.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Microsoft, NVIDIA, Alibaba, Baidu 'go for it', DeepSeek becomes the mainstream configuration.
DeepSeek continue de balayer le monde entier avec une forte intensité. En une semaine seulement, des géants de la technologie étrangers tels que Microsoft Azure et NVIDIA, ainsi que des fournisseurs de cloud chinois tels qu'Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, ont tous annoncé le lancement du grand modèle DeepSeek, attirant davantage d'utilisateurs avec des offres telles que "zéro code" et des prix très bas.
Depuis 2025, DeepSeek a successivement publié les modèles de langage V3, le modèle d'inférence R1 et le modèle multimodal Janus Pro. En raison de ses performances élevées et de ses avantages en termes de coûts, il a attiré l'attention du marché étranger. En tant que l'un des "mécènes" d'OpenAI, le PDG de Microsoft, Nadella, a vivement salué l'innovation de DeepSeek le 29 janvier, tout en faisant de la publicité pour Microsoft lui-même : le modèle DeepSeek-R1 peut être obtenu via la plateforme d'IA Azure AI Foundry et GitHub de Microsoft, et il est promis qu'il fonctionnera à l'avenir sur des ordinateurs équipés de Copilot+.
Le 30 janvier, Nvidia a également annoncé que le site Web des développeurs de Nvidia a inclus le modèle DeepSeek-R1 dans la rubrique "Modèles les plus populaires", et qu'il est disponible dans la version de prévisualisation du service micro-NVIDIA NIM. NVIDIA NIM fait partie du service NVIDIA AI Enterprise Edition, et fournit des conteneurs pour les micro-services d'inférence accélérés par GPU en libre-service, pour un déploiement multi-cloud, dans les centres de données et sur les stations de travail, pour les modèles d'IA pré-entraînés et personnalisés.
Bientôt, les principaux fournisseurs chinois de services cloud sur Internet ont commencé à se connecter activement aux modèles de la série DeepSeek et à rivaliser avec de vraies sommes d'argent.
Le 3 février, Alibaba Cloud a annoncé que la galerie de modèles PAI d'Alibaba Cloud prend en charge le déploiement en un clic des modèles DeepSeek-V3 et R1 sur le cloud. Sur cette plateforme, les utilisateurs peuvent réaliser tout le processus, de l'entraînement au déploiement jusqu'à l'inférence, sans code, simplifier le processus de développement de modèles et offrir une expérience de développement et d'application d'IA plus rapide, plus efficace et plus pratique pour les développeurs et les utilisateurs d'entreprise.
Le même jour, la plateforme intelligente Baidu Cloud Qianfan a également lancé officiellement les modèles DeepSeek-R1 et V3, et a lancé des offres à prix très bas, ainsi que des services gratuits pour une durée limitée. Vous pouvez vous connecter à ModelBuilder de Baidu Cloud Qianfan pour une expérience rapide. En même temps, Baidu intègre sa propre technologie de modélisation, telle que l'intégration du modèle DeepSeek dans la chaîne d'inférence de Qianfan, l'intégration de l'opérateur de sécurité du contenu exclusif de Baidu, et renforce ainsi la sécurité du modèle.
Les journalistes ont appris que de nombreuses entreprises chinoises telles que Huawei Cloud, Tencent Cloud, 360 Cyber Security, Cloud Axis Technology ZStack et d'autres ont déjà intégré le modèle DeepSeek, ce qui signifie que le modèle DeepSeek est devenu presque une norme pour les services de plateforme cloud d'intelligence artificielle.
Alors que DeepSeek « monte en flèche » tout au long du processus, l’industrie des grands modèles d’IA entre progressivement dans le « rallye ».
Le 29 janvier, Ali Tongyi Qianwen a lancé le modèle phare Qwen2.5-Max, qui utilise l'architecture MoE (Expert Mixte) à grande échelle, basée sur plus de 20 billions de tokens (unités lexicales) de données pré-entraînées. L'équipe Ali a déclaré que ce modèle présente des performances comparables voire supérieures à DeepSeek V3, GPT-4 et Claude-3.5-Sonnet. Avec l'amélioration continue de la technologie de post-entraînement, la prochaine version devrait atteindre un niveau supérieur.
Le 1er février, OpenAI a lancé o3-mini, le premier modèle d'inférence de petite taille d'OpenAI qui prend en charge les fonctionnalités demandées par les développeurs. Il offre des avantages tels que des coûts réduits, une faible latence et des fonctionnalités telles que les appels de fonctions, le streaming de données et les sorties structurées. Il prend également en charge l'intégration avec la fonction de recherche, ce qui permet de fournir les réponses les plus récentes et de lier des ressources en ligne pertinentes. Après des tests effectués par certains développeurs, il a été constaté que les performances de l'OpenAI o3-mini n'étaient pas nettement meilleures que celles du DeepSeek R1, et que certaines parties étaient encore dépassées par le R1.
(Source: Observer News)
Source: Eastmoney.com
Auteur: Shanghai Observer