O DeepSeek continua a ser uma tendência global, em apenas uma semana, gigantes da tecnologia como a Microsoft Azure e a Nvidia no exterior, bem como fornecedores de nuvem domésticos como Aliyun, Huawei Cloud, Tencent Cloud e Baidu Cloud anunciaram o lançamento do DeepSeek, um modelo de grande escala, com promoções como 'sem código' e preços muito baixos para atrair mais usuários.
Desde 2025, os modelos de linguagem DeepSeek V3, modelos de inferência R1 e modelos multimodais Janus Pro foram lançados em open source, e devido às suas vantagens de alta performance e baixo custo, têm sido os primeiros a atrair a atenção do mercado internacional. Como um dos "patrocinadores" da OpenAI, o CEO da Microsoft, Nadella, elogiou as inovações da DeepSeek em 29 de janeiro, ao mesmo tempo que fez publicidade à Microsoft: o modelo DeepSeek-R1 pode ser obtido através da plataforma de IA da Microsoft, Azure AI Foundry e GitHub, e promete ser executado em computadores equipados com Copilot+ no futuro.
Em 30 de janeiro, a NVIDIA também anunciou que o modelo DeepSeek-R1 da NVIDIA foi incluído na seção "Modelos Mais Populares" do site de desenvolvedores da NVIDIA e pode ser usado na prévia do serviço NVIDIA NIM. O NVIDIA NIM é parte do serviço empresarial de IA da NVIDIA, fornecendo serviços de inferência acelerados por GPU auto-hospedados para nuvem, data center e estações de trabalho, em contêineres, para modelos de IA pré-treinados e personalizados.
Rapidamente, os principais provedores de serviços em nuvem da Internet na China começaram a competir para se conectar à série de modelos DeepSeek e investir pesadamente em competições um com o outro.
Em 3 de fevereiro, a Alibaba Cloud anunciou que o Alibaba Cloud PAI Model Gallery suporta a implantação de um único clique dos modelos DeepSeek-V3 e R1 na nuvem. Nessa plataforma, os usuários podem realizar o processo completo, desde o treinamento até a implantação e inferência, sem escrever código, simplificando o processo de desenvolvimento de modelos e proporcionando uma experiência de desenvolvimento e aplicação de IA mais rápida, eficiente e conveniente para desenvolvedores e usuários empresariais.
No mesmo dia, a plataforma Baidu Intelligent Cloud Qianfan também lançou oficialmente os modelos DeepSeek-R1 e V3, lançando um plano de preços ultra-baixo e pode desfrutar de serviços gratuitos por tempo limitado. Faça o login no Baidu Intelligent Cloud Qianfan ModelBuilder para experimentá-lo rapidamente. Ao mesmo tempo, a Baidu também incorporou sua própria tecnologia de modelo grande, como a fusão do modelo DeepSeek na cadeia de inferência do Qianfan, integrando o operador exclusivo de segurança de conteúdo da Baidu para melhorar a segurança do modelo.
Os principais fornecedores de serviços em nuvem na China, incluindo Huawei Cloud, Tencent Cloud, 360 Cybersecurity e ZStack, já adotaram o modelo DeepSeek como parte integrante de seus serviços de plataforma de IA em nuvem, tornando-o quase um padrão do setor.
Enquanto o DeepSeek continua a 'correr loucamente', a indústria de grandes modelos de IA gradualmente entra numa 'corrida de rally'.
Em 29 de janeiro, a Ali TTY lançou o modelo de nível principal Qwen2.5-Max no Ali TTY Thousand Questions, com a arquitetura MoE (Mixed Expert) de grande escala, com base em dados de pré-treinamento de mais de 20 trilhões de tokens. A equipe da Ali afirmou que o modelo demonstra desempenho comparável ou até melhor que o DeepSeek V3, GPT-4 e Claude-3.5-Sonnet. Com o contínuo avanço da tecnologia de pós-treinamento, espera-se que a próxima versão alcance um nível ainda mais alto.
Em 1 de fevereiro, a OpenAI lançou o o3-mini, que é o primeiro modelo de inferência de pequeno porte da OpenAI que suporta as necessidades dos desenvolvedores. Possui vantagens de baixo custo e baixa latência, e suporta funções de chamada, transmissão em tempo real, saída estruturada e outras funções, além de suportar integração com a função de pesquisa, podendo fornecer as respostas mais recentes e vincular aos recursos de rede relacionados. Após testes de alguns desenvolvedores, descobriu-se que o desempenho do OpenAI o3-mini não tem uma vantagem evidente em comparação com o DeepSeek R1, e em alguns aspectos, ainda é superado pelo R1.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Microsoft, Nvidia, Alibaba, Baidu "snatch", DeepSeek becomes the mainstream standard
O DeepSeek continua a ser uma tendência global, em apenas uma semana, gigantes da tecnologia como a Microsoft Azure e a Nvidia no exterior, bem como fornecedores de nuvem domésticos como Aliyun, Huawei Cloud, Tencent Cloud e Baidu Cloud anunciaram o lançamento do DeepSeek, um modelo de grande escala, com promoções como 'sem código' e preços muito baixos para atrair mais usuários.
Desde 2025, os modelos de linguagem DeepSeek V3, modelos de inferência R1 e modelos multimodais Janus Pro foram lançados em open source, e devido às suas vantagens de alta performance e baixo custo, têm sido os primeiros a atrair a atenção do mercado internacional. Como um dos "patrocinadores" da OpenAI, o CEO da Microsoft, Nadella, elogiou as inovações da DeepSeek em 29 de janeiro, ao mesmo tempo que fez publicidade à Microsoft: o modelo DeepSeek-R1 pode ser obtido através da plataforma de IA da Microsoft, Azure AI Foundry e GitHub, e promete ser executado em computadores equipados com Copilot+ no futuro.
Em 30 de janeiro, a NVIDIA também anunciou que o modelo DeepSeek-R1 da NVIDIA foi incluído na seção "Modelos Mais Populares" do site de desenvolvedores da NVIDIA e pode ser usado na prévia do serviço NVIDIA NIM. O NVIDIA NIM é parte do serviço empresarial de IA da NVIDIA, fornecendo serviços de inferência acelerados por GPU auto-hospedados para nuvem, data center e estações de trabalho, em contêineres, para modelos de IA pré-treinados e personalizados.
Rapidamente, os principais provedores de serviços em nuvem da Internet na China começaram a competir para se conectar à série de modelos DeepSeek e investir pesadamente em competições um com o outro.
Em 3 de fevereiro, a Alibaba Cloud anunciou que o Alibaba Cloud PAI Model Gallery suporta a implantação de um único clique dos modelos DeepSeek-V3 e R1 na nuvem. Nessa plataforma, os usuários podem realizar o processo completo, desde o treinamento até a implantação e inferência, sem escrever código, simplificando o processo de desenvolvimento de modelos e proporcionando uma experiência de desenvolvimento e aplicação de IA mais rápida, eficiente e conveniente para desenvolvedores e usuários empresariais.
No mesmo dia, a plataforma Baidu Intelligent Cloud Qianfan também lançou oficialmente os modelos DeepSeek-R1 e V3, lançando um plano de preços ultra-baixo e pode desfrutar de serviços gratuitos por tempo limitado. Faça o login no Baidu Intelligent Cloud Qianfan ModelBuilder para experimentá-lo rapidamente. Ao mesmo tempo, a Baidu também incorporou sua própria tecnologia de modelo grande, como a fusão do modelo DeepSeek na cadeia de inferência do Qianfan, integrando o operador exclusivo de segurança de conteúdo da Baidu para melhorar a segurança do modelo.
Os principais fornecedores de serviços em nuvem na China, incluindo Huawei Cloud, Tencent Cloud, 360 Cybersecurity e ZStack, já adotaram o modelo DeepSeek como parte integrante de seus serviços de plataforma de IA em nuvem, tornando-o quase um padrão do setor.
Enquanto o DeepSeek continua a 'correr loucamente', a indústria de grandes modelos de IA gradualmente entra numa 'corrida de rally'.
Em 29 de janeiro, a Ali TTY lançou o modelo de nível principal Qwen2.5-Max no Ali TTY Thousand Questions, com a arquitetura MoE (Mixed Expert) de grande escala, com base em dados de pré-treinamento de mais de 20 trilhões de tokens. A equipe da Ali afirmou que o modelo demonstra desempenho comparável ou até melhor que o DeepSeek V3, GPT-4 e Claude-3.5-Sonnet. Com o contínuo avanço da tecnologia de pós-treinamento, espera-se que a próxima versão alcance um nível ainda mais alto.
Em 1 de fevereiro, a OpenAI lançou o o3-mini, que é o primeiro modelo de inferência de pequeno porte da OpenAI que suporta as necessidades dos desenvolvedores. Possui vantagens de baixo custo e baixa latência, e suporta funções de chamada, transmissão em tempo real, saída estruturada e outras funções, além de suportar integração com a função de pesquisa, podendo fornecer as respostas mais recentes e vincular aos recursos de rede relacionados. Após testes de alguns desenvolvedores, descobriu-se que o desempenho do OpenAI o3-mini não tem uma vantagem evidente em comparação com o DeepSeek R1, e em alguns aspectos, ainda é superado pelo R1.
(Fonte do artigo: Shanghai Observer)
Fonte: Eastmoney.com
Autor: Shanghai Observer