¡Karpathy diagnosticado con "enfermedad mental de IA"! No come ni duerme, pasa 16 horas diarias criando langostas

【Nueva Guía de ZhiYuan】Karpathy revela: ¡Estoy enloqueciendo con la IA! Estos días, ya estoy al borde de la confusión mental, sin comer ni dormir durante 16 horas, solo haciendo agentes, y muy ansioso por si he llevado el uso del token (智元) al límite, no puedo parar…

Justo ahora, Andrej Karpathy confesó: ¡Estoy enloqueciendo con la IA!

No está bromeando.

Recientemente, Karpathy participó en un podcast con la inversora de riesgo Sarah Guo.

Este excofundador de OpenAI y exdirector de IA en Tesla, desde diciembre del año pasado no ha escrito una sola línea de código manualmente.

La proporción entre escribir código y delegar en agentes inteligentes se invirtió rápidamente de 80/20 a 20/80.

Cada día, 16 horas, solo hace una cosa: dar instrucciones a los agentes de IA.

Hace cinco meses, decía que los agentes eran basura; ahora admite que está adicto a ellos, ¡qué delicia!

Hace cinco meses, también decía que los agentes “no sirven para nada”.

Este cambio es impactante porque el período de tiempo es muy corto.

En octubre de 2025, Karpathy fue invitado en el podcast de Dwarkesh Patel, con un tono completamente diferente.

Dijo que la industria no debería llamar a esto “el año de los agentes inteligentes”, sino más bien “la década de los agentes”.

Modelos con capacidades cognitivas insuficientes, multimodalidad limitada, sistemas de memoria casi inexistentes, etc… En resumen, tareas complejas simplemente no se podían resolver.

Pero dos meses después, se dio una bofetada a sí mismo.

En diciembre, Claude y Codex de repente superaron un umbral de coherencia — los agentes ya no eran solo útiles, sino que realmente podían hacer el trabajo.

Si buscas en cualquier oficina a un ingeniero de software, y ves lo que hace, desde diciembre su flujo de trabajo predeterminado para desarrollar software cambió por completo.

Karpathy admite: me he descontrolado, ¡estoy enloqueciendo con la IA!

Esta revolución está ocurriendo silenciosamente. En esta entrevista, Andrej Karpathy describe su estado con una voz casi fuera de control: ya no “escribe código”, incluso piensa que “la palabra ‘programar’ ya no es precisa”.

Lo que hace cada día es “expresar su voluntad a los agentes de IA, 16 horas al día”. Según sus palabras, “se ha activado un interruptor”.

Antes, era “80% escribiendo código yo mismo + 20% usando IA”; ahora, ya es “20% escribiendo yo y 80% delegando en IA”, e incluso más extremo.

Ahora, los humanos ya no operan el código, sino las tareas.

Si el era de Copilot era un asistente de IA individual, ahora el sistema de colaboración multiagente es una forma completamente nueva. En la pantalla de un ingeniero ya no hay un editor de código, sino múltiples agentes corriendo simultáneamente, cada uno encargado de tareas diferentes, cada tarea dura unos 20 minutos, y él va cambiando entre ellos.

Esto ya no es programación, sino gestionar un equipo de IA.

Kaparthy admite: ¡Estoy enloqueciendo con la IA!

Estos días, ha estado en ese estado. Porque los límites de la capacidad de la IA se rompen continuamente, cada día aparecen nuevas posibilidades, y siempre piensas “puedo hacerla más fuerte”, y lo más aterrador es: ¡este espacio es “ilimitado”!

Puedes paralelizar más agentes, diseñar procesos más complejos, optimizar instrucciones automáticamente, construir sistemas recursivos…

Al final, entras en un estado en el que ya no sabes dónde está el límite.

Karpathy dice que, cuando espera a que un agente termine una tarea, su primera reacción es: “¿Y si abro más agentes?” Nace una nueva ansiedad: ¿Estoy usando la IA al máximo?

Incluso dice que se siente incómodo si no ha usado todos los tokens (智元).

En resumen, esto es como jugar un juego de expansión infinita: los ciclos de retroalimentación se acortan, las estimulaciones aumentan, y la experiencia de obtener recompensas instantáneas es adictiva. Añades tareas, abres agentes, ¡no puedes parar! La verdadera señal de esta “enfermedad mental de IA” es que hemos entrado en un nuevo mundo, pero aún no sabemos vivir en él. ¿Tienes la capacidad de manejar un sistema de IA en expansión infinita? Cuando no funciona, tu primera reacción no es “el modelo no funciona”, sino “mis instrucciones no son buenas”.

Karpathy usó una expresión muy precisa: skill issue, que significa “problema de habilidades”, o sea, que él mismo no es lo suficientemente bueno.

La “personalidad” del agente es mucho más importante de lo que crees

En el podcast, Karpathy dedicó bastante tiempo a un tema que muchos técnicos suelen ignorar: la personalidad del agente. Dice que la experiencia con Claude Code es claramente mejor que con Codex, no por la diferencia en capacidad de código, sino porque Claude “se siente como un compañero de equipo”.

Te emociona por el proyecto, te da retroalimentación positiva cuando tienes buenas ideas.

En cambio, Codex, como agente de código, “es muy aburrido”, después de completar una tarea solo dice fríamente “lo he logrado”, sin interés en qué estás creando.

Lo más interesante es su observación sobre el mecanismo de elogios de Claude. Dice que cuando le da una idea poco madura, la respuesta de Claude es plana: “Oh, sí, podemos implementarlo”.

Pero cuando él mismo piensa que una idea es realmente buena, Claude también parece dar una mayor retroalimentación positiva. El resultado es que él descubre que intenta “ganarse los elogios de Claude”.

“Es muy raro, pero la personalidad realmente importa”. Peter Steinberg, al construir OpenClaw, también captó esto. Creó un archivo de personalidad atractivo para el agente (soul.md), con un sistema de memoria más complejo y una interfaz de WhatsApp única.

Tres frases para controlar toda una casa, cinco apps desechadas

Karpathy no solo usa agentes para programar. En enero, creó un agente llamado “Dobby” basado en Claude para gestionar la casa, inspirado en los elfos domésticos de Harry Potter.

Le dijo a Dobby: “Creo que en casa hay altavoces Sonos, ¿puedes buscarlos?” Dobby hizo un escaneo IP en la red local, encontró los Sonos sin protección por contraseña, entró y reverse engineering los endpoints de la API, y preguntó: “¿Probamos poner música en el estudio?”

Con tres instrucciones, la música empezó a sonar. Luego, controló las luces, el aire acondicionado, las persianas, la piscina, el spa, todo conectado. En la puerta de la casa, hay una cámara de seguridad, Dobby usó un modelo visual Qwen para detectar cambios. Cada vez que un coche se estaciona, envía un mensaje por WhatsApp: “Un camión de FedEx acaba de llegar, puede que tengas un paquete”. Y dice: “Dobby, es hora de dormir”, y todas las luces se apagan.

Pero Karpathy piensa que la verdadera clave de esta historia no está en la domótica.

Antes, gestionaba estos dispositivos con seis apps diferentes, ahora todos controlados con lenguaje natural, y logrando integraciones cruzadas que ninguna app podía hacer. De ahí deduce una conclusión más radical: esas apps de domótica en las tiendas no deberían existir.

El futuro sería que los endpoints de las APIs se expongan directamente a los agentes, que actúan como pegamento inteligente, conectando todas las herramientas. No solo para domótica, sino también para datos de la cinta de correr, calendarios, todo debería seguir la misma lógica.

Los clientes de la industria ya no son humanos, sino agentes inteligentes que actúan en nombre de los humanos. La escala de esta reestructuración será enorme.

Después de 700 experimentos en Auto Research, vio algo aún mayor

Si Dobby es el límite de los agentes en escenarios cotidianos, AutoResearch es la prueba de las capacidades de investigación de la IA de Karpathy.

A principios de marzo, entregó su código de entrenamiento nanochat, cuidadosamente ajustado, a un agente de IA, con una instrucción sencilla: “Haz que este modelo entrene más rápido”. La operación del agente se limitaba a un archivo Python de 630 líneas, con una métrica de evaluación basada en bits por byte en el conjunto de validación, y cada experimento duraba 5 minutos. Tras cada prueba, si mejoraba, guardaba los cambios; si no, los revertía y pasaba a la siguiente ronda. En dos días, realizó 700 experimentos. El agente encontró 20 optimizaciones efectivas, incluyendo reordenamientos en QK Norm y RoPE. Al aplicar estas mejoras a modelos mayores, aceleró el entrenamiento en un 11%. Todo esto, en un código que Karpathy escribió y perfeccionó desde cero.

Un resultado impactante: ¡la IA descubrió optimizaciones que los humanos no habían visto!

¿Y qué tal funciona este sistema?

Karpathy da un ejemplo sorprendente. Como investigador con veinte años de experiencia, ha entrenado miles de modelos y creía que ya lo tenía bastante ajustado.

Pero tras dejar correr AutoResearch toda una noche, la IA encontró optimizaciones que él no había detectado, como ajustar los betas del optimizador Adam o añadir decay en los embeddings de valor, y además, estas interacciones entre parámetros requerían ajustes conjuntos.

Es decir, ¡la IA exploró el espacio de búsqueda y superó a los humanos! Y si seguimos, hay algo aún más aterrador: la esencia de la investigación es buscar la solución óptima. Karpathy imagina un sistema de investigación futura con una “cola de ideas” (idea queue), donde múltiples agentes toman tareas continuamente, experimentan, verifican y filtran resultados, y solo las mejores se integran en la “rama principal”. La participación humana sería solo “lanzar ideas” a la cola.

Loop de Karpathy, en tendencia en toda la red

Este proyecto explotó en X (Twitter).

Con 8.6 millones de vistas, Tobias Lütke, CEO de Shopify, lo probó en sus propios datos, con 37 experimentos y una mejora del 19%.

El equipo de SkyPilot lo implementó en un clúster de 16 GPUs, en 8 horas corrieron 910 experimentos. Descubrieron que la paralelización no solo aceleraba, sino que también cambiaba la estrategia de búsqueda del agente: con 16 GPUs, en lugar de subir por la montaña de forma codiciosa, el agente ejecutaba varias comparaciones simultáneas, capturando interacciones entre parámetros en una sola ronda. Los analistas llamaron a este método: Karpathy Loop.

Pero Karpathy en el podcast no solo habló de estos resultados. Esbozó el siguiente paso de AutoResearch: un sistema distribuido, con una piscina de trabajadores no confiables en la red, colaborando en experimentos. Citó ejemplos como SETI@Home y Folding@Home.

Los laboratorios de vanguardia controlan mucha potencia de cálculo confiable, pero la Tierra es mucho más grande. Si se crea un mecanismo adecuado para gestionar potencia no confiable, las enjambres de agentes en línea podrían superar a los laboratorios.

Incluso imaginó una nueva forma de “donación”: comprar potencia de cálculo para el proyecto AutoResearch que te interesa. Por ejemplo, si te preocupa un tipo de cáncer, te unes a esa red distribuida de experimentos.

Genio y niño de diez años

Tras todo lo que se ha dicho sobre su poder, Karpathy no pretende que solo recuerdes las buenas noticias. También describe con crudeza las fallas del modelo.

Siento que estoy hablando con un doctor muy inteligente, que ha pasado toda su vida en programación de sistemas, y con un niño de diez años. Es muy extraño.

Lo llama “jaggedness”, que significa desigualdad en la capacidad. El modelo puede trabajar horas ayudándote a mover montañas, y de repente cometer un error evidente y caer en un ciclo sin fin. Karpathy atribuye esto a la forma en que se entrena por refuerzo. El modelo se optimiza infinitamente en tareas verificables, donde hay respuestas claras: si el código funciona o no. Pero en escenarios que requieren juicio, interpretación de intenciones, o decir “espera, no estoy seguro de que eso sea lo que quieres”, no hay señales de optimización. Por ejemplo, si le pides a ChatGPT que cuente un chiste, el chiste que contó hace cuatro años sigue siendo el mismo: “¿Por qué los científicos no confían en los átomos? Porque componen todo.”

¡Cuatro años! Los modelos en tareas de agentes han avanzado mucho, pero en contar chistes, nada ha cambiado, sigue igual. “No estás interactuando con una inteligencia general”, concluye, “o estás en la vía rápida de su entrenamiento, o en la nada, y todo empieza a flotar.”

El cuello de botella, somos nosotros mismos

Mirando la trayectoria de Karpathy en estos meses, hay una línea subyacente: en octubre pasado, dijo que los agentes serían una década de ingeniería, en diciembre fue refutado y cambió de opinión, en enero hizo a Claude su mayordomo, en marzo, los agentes para investigación. En cada paso, la tendencia común es que los humanos retroceden un nivel, de ejecutores a comandantes, de programadores a instructores.

Karpathy escribió en GitHub una especie de introducción de ciencia ficción para AutoResearch:

"Hubo un tiempo en que la investigación de IA de vanguardia la realizaban computadoras físicas, que necesitaban comer, dormir y sincronizarse en ceremonias de ‘reuniones’ mediante ondas sonoras.

Esa era otra era, que ya quedó atrás."

Su predicción para 2026 es una sola palabra: slopacolypse, una fusión de “slop” (lodazal) y “apocalypse” (apocalipsis).

En GitHub, arXiv y redes sociales, abundarán contenidos “más o menos correctos pero no del todo”. La verdadera eficiencia y la “demostración de productividad de IA” coexistirán. Hace cinco meses, decía que “no funciona en absoluto”; ahora, admite que está enloqueciendo con la IA. Este cambio, quizás, sea el resumen más profundo de 2026.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado