NVIDIA entra en el mercado de grandes modelos de IA

robot
Generación de resúmenes en curso

Si alguien preguntara quién es el mayor ganador de la era de la IA, la respuesta casi no deja lugar a dudas: Nvidia. Gracias a una serie de H100 que escasean y se agotan, es como el que vende palas durante la fiebre del oro: mientras mira a las empresas de IA de todo el mundo luchar a brazo partido, ella permanece en silencio y hace grandes negocios, con su capitalización bursátil disparándose sin freno. Los últimos documentos financieros muestran que Nvidia invertirá 26.000 millones de dólares acumulados durante los próximos 5 años para impulsar con todo su poder el desarrollo de grandes modelos de IA de código abierto. Esto significa que Nvidia ya no se conforma con vender palas, sino que quiere meterse ella misma a excavar el oro.

Inversión a lo grande

El 12 de marzo, según documentos financieros presentados por Nvidia ante la Comisión de Valores y Bolsa de EE. UU. (SEC), Nvidia invertirá 26.000 millones de dólares (aprox. 178.8B de yuanes renminbi) acumulados durante los próximos 5 años, una suma colosal, para impulsar con todo su poder el desarrollo de grandes modelos de IA de código abierto. Nvidia también ha iniciado oficialmente su transformación estratégica de “fabricante de chips” a “laboratorio de IA de vanguardia full stack”.

Según el plan, la inversión de 26.000 millones de dólares de Nvidia en esta ocasión no se centra únicamente en el desarrollo de un modelo específico, sino que abarca toda la cadena industrial del gran modelo de IA de código abierto. Los fondos se irán implementando gradualmente en los próximos 18 a 24 meses; los primeros modelos de IA de código abierto desarrollados internamente se lanzarán como máximo a finales de 2026 o principios de 2027.

Como contraste, este tamaño de inversión supera con creces los 3.000 millones de dólares que se gastaron al entrenar GPT-4 en OpenAI. Y en la ruta tecnológica, Nvidia eligió un “camino intermedio” de “pesos abiertos” (Open-weight). Este modelo está entre la IA totalmente de código cerrado de OpenAI y el código abierto total de la serie Llama de Meta.

En concreto, Nvidia publicará los parámetros clave (pesos) del modelo, permitiendo que empresas y desarrolladores lo descarguen gratis y lo ejecuten, lo ajusten (fine-tuning) en sus propios dispositivos o en su nube privada, con el fin de satisfacer las necesidades empresariales de privacidad de datos, personalización y control de costes. Pero es posible que los datos de entrenamiento y el código del modelo no se publiquen por completo.

El fundador de una organización sin ánimo de lucro centrada en impulsar la apertura de la IA, Laude Institute, y científico informático Andy Konwinski, calificó esta inversión de Nvidia como una señal de tipo marcadora de hitos. “Están en el punto de intersección, en la primera línea, entre numerosos proyectos de IA abiertos y cerrados”, dijo Konwinski. “Es una declaración sin precedentes de su postura a favor de la apertura.”

Además, los análisis de la industria señalan que la estrategia de código abierto también tiene un significado comercial más a largo plazo para Nvidia. Cuando Nvidia publique sus modelos, compartirá pesos y detalles técnicos, lo que facilita que startups e investigadores modifiquen e innoven sobre su base tecnológica. Esto ayuda a formar una red de desarrolladores en torno al ecosistema de hardware de Nvidia, reforzando aún más la adherencia de sus chips en el mercado.

A la altura de OpenAI

Desde que Nvidia lanzó su primer modelo Nemotron el noviembre de 2023, ya ha ido presentando modelos especializados para campos verticales como robótica, modelado climático y plegamiento de proteínas. El vicepresidente de investigación de deep learning aplicado de Nvidia, Bryan Catanzaro, también reveló que Nvidia recientemente ya completó el entrenamiento previo de un modelo de 550B de parámetros. En el desarrollo del modelo central, Nvidia se enfocará en grandes modelos de frontera multimodales y multiárea, abarcando varios frentes como lenguaje, código, computación científica y agentes.

Recientemente, Nvidia también presentó Nemotron 3 Super, una nueva generación de gran modelo de lenguaje de código abierto diseñada específicamente para sistemas de múltiples agentes a nivel empresarial. El volumen total de parámetros del modelo es de 128.000 millones (solo activa 12.000 millones para inferencia); además, admite nativamente una ventana de contexto extremadamente larga de 1 millón de tokens. A diferencia del acceso API típico, en esta ocasión Nvidia ha abierto los pesos del modelo, el conjunto de datos de preentrenamiento/postentrenamiento y el plan de entrenamiento completo.

Los 128.000 millones de parámetros son, en términos generales, equivalentes al modelo más grande de GPT-OSS de OpenAI. Nvidia afirma que, en la puntuación integral del Índice de IA, Nemotron 3 Super obtuvo 37 puntos, mientras que GPT-OSS solo 33.

Cabe destacar que Nvidia también admite que, además de este nivel, ciertas puntuaciones de algunos modelos chinos son superiores a ese umbral. Asimismo, Nvidia indica que Nemotron 3 Super participó en un nuevo tipo de evaluación llamado PinchBench, que evalúa específicamente la capacidad del modelo para controlar OpenClaw; en dicha prueba, Nemotron 3 Super ocupa el primer lugar.

En el plano técnico, Nvidia publicó varias técnicas innovadoras empleadas para entrenar este modelo, que incluyen arquitecturas y estrategias de entrenamiento para mejorar la capacidad de inferencia del modelo, su manejo de contextos largos y su capacidad de respuesta mediante aprendizaje reforzado.

Catanzaro dijo: “Nvidia está prestando una atención a la creación de modelos de código abierto mucho mayor que antes; estamos logrando avances considerables”.

En el plano del ecosistema, Nvidia ya llegó a acuerdos de colaboración con proveedores líderes de servicios en la nube y de hardware como Google Cloud Vertex AI, la infraestructura de Oracle Cloud, Dell Technologies, HPE, etc. También se está preparando el acceso de Amazon AWS Bedrock y Microsoft Azure. Empresas de agentes de desarrollo de software como CodeRabbit, Factory y Greptile, así como instituciones de ciencias de la vida Edison Scientific y Lila Sciences, también han anunciado que integrarán este modelo en sus flujos de trabajo de agentes.

Redefinir la ruta

Durante mucho tiempo, la principal ventaja de Nvidia se ha concentrado en el ámbito de hardware de chips: su cuota de mercado global en chips de IA supera el 80%, pero en el nivel de modelos de IA su influencia en el discurso ha sido relativamente más débil. Anteriormente, los estándares técnicos y los paradigmas de entrenamiento de los grandes modelos los definían en su mayoría empresas como OpenAI y Meta.

El hecho de que Nvidia baje al terreno y desarrolle por cuenta propia un modelo de código abierto de primer nivel tiene como objetivo central definir, desde la base, la ruta técnica de los modelos de IA, de modo que su propia arquitectura de hardware y su pila de software se conviertan en el estándar de facto para toda la industria de la IA, impulsando la demanda de capacidad de cómputo a través de modelos de código abierto. Si Nemotron se convirtiera en el modelo base dominante para la IA de agentes empresariales, la infraestructura de GPU a gran escala requerida para ejecutar masivamente ese modelo seguiría dependiendo de Nvidia: mientras se impulsa la apertura en la capa de modelos, se consolida el bloqueo de la demanda en la capa de hardware.

Los analistas financieros predicen que, si Nvidia logra consolidar su posición dominante en hardware y, al mismo tiempo, puede arrebatar con éxito el 10% de la cuota en el mercado de modelos base, esta iniciativa podría aportar a la empresa ingresos adicionales de hasta 50.000 millones de dólares al año en un plazo de tres años. Bryan Catanzaro dijo que impulsar el desarrollo del ecosistema de código abierto encaja completamente con los intereses fundamentales de Nvidia. Esta inversión colosal no es un seguimiento ciego de modas, sino una decisión estratégica alcanzada tras evaluaciones de la industria a largo plazo.

El martes, hora local, el CEO de Nvidia, Huang Renxun, también publicó un raro artículo de blog extenso y público sobre inteligencia artificial. Es el séptimo texto largo que publica desde 2016; el artículo explica sistemáticamente la lógica subyacente de la industria de la IA. En el texto, Huang Renxun definió la “arquitectura de cinco capas” de la IA. Señaló que en la actualidad la industria de la IA aún se encuentra en una etapa extremadamente temprana de desarrollo: aunque la industria ha invertido miles de millones de dólares, el verdadero potencial de la IA todavía no se ha explorado por completo. En el futuro, se necesitarán inversiones continuadas de decenas de miles de millones de dólares para perfeccionar la infraestructura subyacente.

Huang Renxun afirmó que la IA ya se ha convertido en una de las fuerzas más poderosas que moldean el mundo en la actualidad. No es una aplicación inteligente o un modelo único, sino que funciona como infraestructura crucial, igual que la electricidad y el internet: opera sobre hardware, energía y bases económicas reales, puede absorber materias primas y convertirlas en inteligencia a escala; en el futuro, cada empresa usará IA y cada país construirá infraestructura de IA.

Con respecto a la preocupación por el empleo que trae el desarrollo de la IA, Huang Renxun considera que la IA no recortará puestos de trabajo; al contrario, creará muchas nuevas oportunidades laborales, especialmente en el ámbito de la infraestructura y oficios técnicos cualificados. La mano de obra necesaria para respaldar la construcción de infraestructura de IA es extremadamente grande. Las “fábricas de IA” necesitan electricistas, plomeros, trabajadores de acero, técnicos de redes, instaladores y operadores, etc.: son puestos de alta cualificación y con altos salarios, y actualmente hay escasez. La IA está cubriendo grandes déficits de mano de obra a nivel global en empleos como conductores de camiones, enfermeras, contables, etc., en lugar de fabricar desempleo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado