OpenAI expone el proyecto "Estrella Polar", el "Gran Desempleo de 2028" podría realmente estar llegando

robot
Generación de resúmenes en curso

Hace poco, un artículo titulado “Predicciones para 2028” se volvió viral en internet. El artículo señalaba que, debido al avance de la IA, en 2028 habría una gran ola de desempleo, ya que muchos trabajos serían reemplazados por IA.

Tras su publicación, sumado a la situación en Oriente Medio, el mercado bursátil estadounidense sufrió un fuerte golpe ese día. Esto fue considerado algo surrealista, ya que claramente ese artículo fue escrito por IA, pero parecía coincidir con el miedo generalizado a que la “IA traería un gran desempleo”, por lo que tuvo un impacto tan grande.

Recientemente, una noticia revelada por OpenAI hizo que la gente se diera cuenta de que la “gran pérdida de empleos en 2028” quizás no sea solo una especulación.

Hace poco, el director científico de OpenAI, Jakub Pachocki, en una entrevista exclusiva con MIT Technology Review, dijo una frase que puso los pelos de punta: su “Estrella Polar” es construir antes de 2028 un sistema de investigación totalmente automatizado con múltiples agentes inteligentes.

Este septiembre, se logrará el primer objetivo de la primera fase:

Un “becario de investigación autónomo en IA” capaz de manejar de forma independiente problemas específicos de investigación.

Esto no es un simple marcador en la hoja de ruta del producto, ni una declaración casual de Altman en X. Es una apuesta de toda la empresa en una dirección.

El significado de la “Estrella Polar”

Cuando las empresas tecnológicas hablan de la “Estrella Polar”, generalmente se refieren a dos cosas: primero, que otras tareas deben cederle paso; y segundo, que dentro de la empresa ya hay un consenso.

Desde las acciones de OpenAI en las últimas dos semanas, esta interpretación parece bastante acertada.

El 19 de marzo, OpenAI anunció la adquisición de Astral, una empresa de herramientas para desarrolladores, integrando su equipo en el departamento de Codex; al mismo tiempo, la compañía anunció la creación de una “superaplicación” de escritorio que integra ChatGPT, Codex y un navegador, liderada por Fidji Simo, con Greg Brockman apoyando en la reorganización.

Se termina la era de productos fragmentados; OpenAI está apostando todas sus fichas en una sola dirección.

Y esa dirección apunta a “hacer que la IA investigue por sí misma”.

La lógica de Pachocki es bastante clara: modelos de razonamiento, agentes inteligentes y explicabilidad, estas tres rutas tecnológicas estaban cada una por su lado en OpenAI, pero ahora se están integrando en un solo objetivo: crear un investigador en IA que pueda operar de forma autónoma en un centro de datos durante mucho tiempo. Él dice que, una vez logrado esto, será “lo que realmente confiamos”.

El exinvestigador de OpenAI, Andrej Karpathy, tiene una opinión aún más directa: “Todos los laboratorios de experimentación avanzada en modelos de lenguaje grande harán esto, y esa será la batalla final del jefe.” Añadió una frase que vale la pena analizar: “La escala será más compleja, pero hacer esto es solo un problema de ingeniería, y tendrá éxito.”

Presta atención a su elección de palabras: no “si será posible”, sino “cuándo será posible”.

Anthropic en acción

Justo el mismo día en que OpenAI anunció su “Estrella Polar”, Anthropic lanzó silenciosamente Claude Code Channels, una función que permite a los desarrolladores interactuar directamente con sesiones de Claude Code a través de Telegram y Discord.

Esto puede parecer un detalle menor por sí solo, pero en el contexto de las tendencias globales, es muy importante.

La lógica de Anthropic es: en lugar de decirle a los desarrolladores qué podrá hacer la IA en el futuro, mejor integrarla ahora en su flujo de trabajo real. Telegram y Discord no son publicaciones académicas, sino los lugares donde los programadores trabajan todos los días. Hacer que Claude Code esté allí significa que pasa de ser una “herramienta” a convertirse en un “compañero”.

Las reacciones en la comunidad confirman esta percepción.

Un usuario comentó directamente: “Con esta actualización, Claude mató a OpenClaw, ya no necesitas comprar un Mac Mini”. La implicación es que las mejoras en infraestructura de Anthropic ya han eliminado la ventaja de costo de las soluciones de código abierto.

Desde una perspectiva más macro, la velocidad de iteración de Anthropic en Claude Code es realmente sorprendente. En pocas semanas, ha integrado procesamiento de texto, miles de habilidades MCP y capacidades de autodiagnóstico y reparación de errores. Mientras OpenAI fortalece Codex con Astral, Anthropic ya ha llevado Claude Code directamente a las ventanas de chat de los desarrolladores.

Ambas empresas persiguen el mismo objetivo, pero con rutas muy diferentes: OpenAI trabaja en un “investigador totalmente automático para 2028”, mientras que Anthropic desarrolla “herramientas inteligentes disponibles hoy”.

El verdadero desafío

Pero hay un detalle que no se puede ignorar.

Pachocki hizo algo poco común en la entrevista: habló abiertamente sobre los desafíos de seguridad y control, y fue bastante sincero.

Dijo que su idea es usar otros grandes modelos de lenguaje para “monitorear las notas del investigador en IA”, y detectar comportamientos no deseados antes de que ocurran. Pero luego admitió: “Nuestro entendimiento de los grandes modelos de lenguaje no es suficiente para controlarlos completamente”, y que aún falta mucho para decir que “esto ya está resuelto”.

Que un director científico diga “todavía no tenemos control completo” y, al mismo tiempo, anuncie un sistema de investigación en IA totalmente automático para 2028, es algo que todos deben reflexionar seriamente.

No se trata de un pesimismo, sino de entender la verdadera dificultad de la tarea. La capacidad de Pachocki para decir esto refleja que en OpenAI son conscientes de los retos que enfrentan.

Desde el punto de vista técnico, un ciclo llamado “Cascada de Karpasi” ha sido resumido por investigadores: un marco de automatización de investigación en IA exitoso requiere tres elementos: un agente inteligente que pueda modificar un archivo, un único indicador objetivo para evaluar, y un límite de tiempo fijo para los experimentos.

Este marco ya está comenzando a dar resultados en entornos reales. El CEO de Shopify, Tobias Lütke, compartió un ejemplo: hizo que un agente de investigación automática corriera durante la noche, y a la mañana siguiente, realizó 37 experimentos, mejorando el rendimiento del modelo en un 19%.

Desde la idea hasta la implementación, el camino es más corto de lo que parecía.

El futuro con una suscripción de 20,000 dólares

El proyecto “Estrella Polar” no solo representa una ventaja tecnológica, sino también una estrategia comercial clave.

Las cifras de Paul Roetzer invitan a revisarlas varias veces: cita una predicción interna de OpenAI, que para 2029, los negocios basados en agentes inteligentes podrían generar 29 mil millones de dólares anuales, incluyendo una “agente de conocimiento” con una tarifa mensual de 2000 dólares y una “agente de investigación” con una tarifa mensual de 20,000 dólares.

Estas cifras muestran que “el investigador en IA” nunca fue solo un objetivo técnico, sino una hoja de ruta de ingresos.

La “agente de investigación” de 20,000 dólares al mes, en términos de salario, sería una fracción del sueldo de un investigador senior, pero puede trabajar 24/7 y realizar 37 experimentos simultáneamente. No reemplaza a un individuo específico, sino que redefine qué es la “productividad en investigación”.

Me recuerda la frase de Karpathy: “Esta es la batalla final del jefe.” Cuando habla de “jefe”, no se refiere a un competidor, sino al límite de capacidades de la IA misma.

Una vez que la IA pueda avanzar en la investigación científica de forma autónoma, la velocidad de su progreso ya no estará limitada por la cantidad de investigadores humanos ni por sus horas de trabajo.

Pachocki también expresó esto de manera más contenida: “Una vez que el sistema pueda operar de forma autónoma en un centro de datos durante mucho tiempo, eso será en lo que realmente confiamos.”

El investigador en IA de septiembre de 2026 no es el fin, sino un punto de partida importante.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado