「¿Cuánta potencia de cálculo comprar? Todo」: El cofundador de OpenAI afirma que 110 mil millones de dólares aún no satisfacen la demanda, y el preentrenamiento ya se ha orientado hacia la optimización conjunta de costos

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, el cofundador de OpenAI, Greg Brockman, recordó en una entrevista el aumento explosivo de las capacidades de programación con IA que se produjo en diciembre de 2025. Para medir el progreso, utilizó un prompt de prueba que había conservado durante años: hacer que la IA construyera un sitio web que, cuando él aprendía a programar, le tomó varios meses terminar. Durante todo 2025, esa tarea requería múltiples rondas de prompts y unas cuatro horas para completarse; para diciembre, con un solo prompt ya estaba hecho, y además con buena calidad. Dijo que el nuevo modelo permitió que la IA pasara de “poder completar aproximadamente el 20% de las tareas” a “aproximadamente el 80%”, y que ese salto obligó a todos a “reorganizar los flujos de trabajo alrededor de la IA”.

Respecto al destino de la financiación de 11.000 millones de dólares, Brockman comparó el cómputo con “contratar a vendedores”: mientras el producto tenga canales de ventas escalables, contratar a más vendedores generará más ingresos. El cómputo no es un centro de costos, sino un centro de ingresos. Recordó una conversación con su equipo en vísperas del lanzamiento de ChatGPT: “Preguntaron ‘¿cuánto cómputo deberíamos comprar?’ Respondí ‘todo’. Dijeron ‘no, no, no, en serio, ¿cuánto exactamente deberíamos comprar?’ Respondí ‘no importa cómo lo construyamos, no alcanzaremos la demanda’.“ Ese juicio sigue siendo válido hasta hoy, y la compra de cómputo requiere asegurarla con 18 a 24 meses de anticipación.

Sobre cómo usar ese cómputo, Brockman reveló que OpenAI ya no busca simplemente el mayor tamaño de preentrenamiento, sino que optimiza conjuntamente las capacidades de preentrenamiento y los costos de inferencia: “No necesariamente tienes que hacerlo lo más grande posible, porque también tienes que considerar los muchos escenarios de uso de inferencia en el downstream; lo que realmente quieres es una solución óptima de inteligencia multiplicada por costo”. Pero también se opuso con claridad a la afirmación de que “el preentrenamiento ya no es importante”, y sostuvo que cuanto más inteligente sea el modelo base, más alta será la eficiencia de las etapas posteriores de aprendizaje por refuerzo e inferencia, y que “todavía” se “necesitan absolutamente” GPUs de Nvidia para respaldar el entrenamiento a gran escala y centralizado.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado