El 21 de mayo, el CEO de NVIDIA, Jensen Huang, dijo que el lanzamiento de código abierto de DeepSeek R1 ha impulsado la adopción generalizada de la tecnología de IA de inferencia y ha acelerado la necesidad de computación. Modelos como o3 de OpenAI, DeepSeek R1 y Grok 3 de xAI demuestran cómo la IA puede pasar de modelos perceptivos y generativos a modelos de inferencia de pensamiento a largo plazo que requieren una potencia de cálculo significativamente mejorada. Estos modelos pueden resolver problemas complejos, tomar decisiones estratégicas y aplicar el razonamiento lógico, pero cada tarea requiere 100 veces más computación que la IA tradicional basada en inferencias. "La escala de la personalización del modelo y posterior al entrenamiento es enorme, y el esfuerzo computacional puede ser órdenes de magnitud más alto que antes del entrenamiento", dijo Huang. Nuestras necesidades de inferencia se están acelerando, impulsadas por la ampliación de los tiempos de prueba y los nuevos modelos de inferencia".
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
CEO de Nvidia: DeepSeek ha impulsado un aumento explosivo en la demanda de computación AI
El 21 de mayo, el CEO de NVIDIA, Jensen Huang, dijo que el lanzamiento de código abierto de DeepSeek R1 ha impulsado la adopción generalizada de la tecnología de IA de inferencia y ha acelerado la necesidad de computación. Modelos como o3 de OpenAI, DeepSeek R1 y Grok 3 de xAI demuestran cómo la IA puede pasar de modelos perceptivos y generativos a modelos de inferencia de pensamiento a largo plazo que requieren una potencia de cálculo significativamente mejorada. Estos modelos pueden resolver problemas complejos, tomar decisiones estratégicas y aplicar el razonamiento lógico, pero cada tarea requiere 100 veces más computación que la IA tradicional basada en inferencias. "La escala de la personalización del modelo y posterior al entrenamiento es enorme, y el esfuerzo computacional puede ser órdenes de magnitud más alto que antes del entrenamiento", dijo Huang. Nuestras necesidades de inferencia se están acelerando, impulsadas por la ampliación de los tiempos de prueba y los nuevos modelos de inferencia".