El cofundador de OpenAI afirma que $110 mil millones todavía no pueden satisfacer la demanda, el preentrenamiento se traslada a costos de optimización conjunta

robot
Generación de resúmenes en curso

Según el seguimiento de 1M AI News, el cofundador de OpenAI, Greg Brockman, reflexionó durante una entrevista sobre el salto en las capacidades de programación con IA que se espera para diciembre de 2025. Usó un prompt de prueba que había conservado durante años para medir el progreso: pedirle a la IA que construyera un sitio web que le llevó meses completar cuando estaba aprendiendo a programar. A lo largo de 2025, esta tarea requirió múltiples prompts y unas cuatro horas para realizarse; para diciembre, podía completarse con un solo prompt y con alta calidad. Dijo que el nuevo modelo permitió que la IA pasara de «poder completar aproximadamente el 20% de las tareas» a «aproximadamente el 80%», un cambio que obliga a que todos «reorganicen los flujos de trabajo en torno a la IA».

En cuanto a la asignación de los $110 mil millones de financiación, Brockman comparó la capacidad de cómputo con «contratar vendedores»: mientras el producto tenga un canal de ventas escalable, contratar más vendedores puede generar más ingresos. La capacidad de cómputo no es un centro de costos, sino un centro de ingresos. Recordó una conversación con su equipo la víspera del lanzamiento de ChatGPT: «Preguntaron: “¿Cuánta capacidad de cómputo deberíamos comprar?” Yo dije: “Toda”. Ellos respondieron: “No, no, no, en serio, ¿cuánta deberíamos comprar?” Yo dije: “No importa cómo lo construyamos, no vamos a estar a la altura de la demanda”.» Este criterio sigue siendo válido hoy, y la compra de capacidad de cómputo debe asegurarse con al menos 18 a 24 meses de antelación.

Sobre cómo aprovechar esta capacidad de cómputo, Brockman reveló que OpenAI ya no solo persigue el mayor nivel posible de pre-entrenamiento, sino que optimiza de forma conjunta las capacidades de pre-entrenamiento y los costos de inferencia: «No necesariamente tienes que hacerla lo más grande posible, porque también necesitas considerar los numerosos casos de uso de inferencia posteriores; lo que realmente quieres es la solución óptima de inteligencia multiplicada por costo». Sin embargo, se opuso firmemente a la idea de que «el pre-entrenamiento ya no es importante», al creer que cuanto más inteligente sea el modelo base, mayor será la eficiencia de las etapas posteriores de aprendizaje por refuerzo e inferencia, y que todavía existe una «necesidad absoluta» de GPUs Nvidia para respaldar el entrenamiento centralizado a gran escala.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado