¡Lo último! Entrevista en profundidad de Karpathy de diez mil palabras: Estoy tan ansioso que me he vuelto adicto a la IA, y en todos los campos verificables, finalmente pertenecerán a las máquinas

Cuando los agentes de IA pueden diseñar experimentos de forma autónoma, ejecutar código, optimizar modelos — e incluso trabajar sin parar mientras tú duermes — ¿qué está pasando con el papel de los ingenieros humanos? En todos los ámbitos no verificables, todavía domina la presencia humana; en todos los ámbitos verificables, ya sea han sido conquistados por las máquinas o pronto lo serán.

Esta es la más reciente conversación profunda entre Karpathy y la presentadora Sarah Guo en el podcast No Priors, que dura más de una hora, con una densidad de información extremadamente alta, ideal para recargar energías durante el fin de semana.

Andrej Karpathy, en esta conversación, admite su «psicopatía de IA», revela en detalle un proyecto AutoResearch que haría sonrojar a los laboratorios de vanguardia, y reconoce que los investigadores de OpenAI están activamente automatizándose a sí mismos. Por primera vez, describe una red de investigación en IA distribuida similar a una blockchain, que quizás algún día supere en ciertos aspectos a laboratorios punteros con decenas de miles de GPUs, y ofrece un mapa de comprensión honesto en esta era que está reescribiendo todas las reglas.

A continuación, el contenido completo.


«Psicopatía de IA» — Un giro que empezó en diciembre de 2025

Esta conversación comienza con una sensación de pérdida sincera.

Sarah Guo recuerda un día en que entró en su oficina y vio a Karpathy muy concentrado mirando la pantalla. Le preguntó en qué estaba ocupado, y él levantó la vista y dijo una frase que ella recordaría mucho tiempo: “‘Código’ ya no es correcto; ahora estoy ‘transmitiendo voluntad’ a mi agente inteligente, y eso durante dieciséis horas seguidas.”

No es una retórica de discurso tecnológico. Es la descripción más precisa de su estado actual.

«Siento que he estado en un estado constante de psicopatía de IA,» dice Karpathy, con un tono que mezcla algo difícil de distinguir entre entusiasmo y ansiedad, «porque, como individuo, las cosas que puedo lograr se han desbloqueado en gran medida.»

Él sitúa el inicio de este cambio en diciembre pasado. Antes de eso, su proporción de escribir código frente a delegar en agentes inteligentes era aproximadamente 80/20; después de diciembre, esa proporción se invirtió completamente, a 20/80 — y él cree que incluso ese 20 ya es demasiado conservador.

«Creo que desde diciembre no he escrito ni una sola línea de código,» dice, «es un cambio extremadamente grande. Le conté esto a mis padres, pero siento que una persona normal no puede realmente entender qué está pasando, o cuán violento es.»

«Si ahora buscas a un ingeniero de software al azar y ves qué hace en su escritorio, cuál es su flujo de trabajo predeterminado para construir software, básicamente desde diciembre eso ha cambiado por completo.»

Sarah Guo menciona que en su firma de inversión, Conviction, ya no hay nadie escribiendo código. Todos llevan micrófonos y susurran en voz baja a sus agentes todo el día. «Pensé que estaban locos,» dice, «pero ahora lo acepto completamente — solo me he dado cuenta tarde: esa es la forma correcta, solo que llegaron antes.»

Karpathy describe esta situación con más viveza: «Pensar en Cursor o Codex no como un solo diálogo, sino como muchos. ¿Cómo gestionarlos simultáneamente? ¿Cómo asignarles tareas? ¿Qué son esas herramientas, esas ‘pinzas’?»

Ve en X (Twitter) a mucha gente haciendo todo tipo de cosas, cada una pareciendo una buena idea, y se angustia por no estar en la vanguardia. «Estoy en esa psicopatía, porque en esencia, este campo no ha sido explorado en su raíz.»


¿Hasta dónde llega el techo? «Todo es cuestión de habilidades»

Sarah Guo plantea una pregunta que muchos llevan en la cabeza: ¿cuál es tu límite ahora?

La respuesta de Karpathy sorprende por su optimismo, pero también por una sensación inquietante de opresión: «Creo que en todos lados. Incluso si algo no funciona, en gran medida es una cuestión de habilidades — no de capacidad insuficiente, sino de no haber encontrado aún cómo conectar las herramientas existentes.»

Pone el ejemplo de Peter (autor del proyecto OpenClaw). En su foto famosa, está sentado frente a un monitor lleno de sesiones con decenas de Codex. Cada sesión, correctamente guiada, tarda unos veinte minutos en completar la tarea. La forma de trabajar de Peter se vuelve: inicia varias repositorios simultáneamente, los navega, asigna nuevas tareas, revisa su trabajo y decide qué mantener y qué descartar.

«Ya no es ‘esto es una línea de código’, o ‘esto es una función nueva’, sino ‘esto es una nueva funcionalidad, delega a agente uno; otra que no interfiere, a agente dos’,» dice Karpathy, «estás manipulando tus repositorios a nivel macro.»

La lógica subyacente que impulsa todo esto, la llama una obsesión que él llama «capacidad de tokens».

«Cuando los agentes trabajan y tú esperas, lo obvio es: puedo hacer más trabajo. Si puedo obtener más tokens, debería agregar tareas en paralelo,» dice, «si no sientes que estás limitado por cuánto dinero puedes gastar, entonces el cuello de botella en tu sistema es la capacidad máxima que puedes explotar.»

Esa sensación la remonta a su experiencia en el doctorado: en aquel entonces, se angustiaba porque las GPUs no estaban al 100%, lo que significaba que se desperdiciaba potencia de cálculo. «Pero ahora, no es un problema de potencia, sino de tokens. ¿Cuántos tokens puedes manejar?»

Sarah Guo ríe y dice que algunos ingenieros que conoce ya están empezando a «intentar no dormir si aún les queda saldo en su suscripción.»

Esa ansiedad en sí misma es la mejor prueba de una transición de capacidades.


¿Cómo es dominar los agentes de programación?

Si dedicases un año entero, trabajando dieciséis horas diarias en el uso de agentes de programación, ¿cómo sería «ser experto»?

Karpathy empieza desde una sola sesión y la expande progresivamente: «Creo que el interés de todos está en ‘subir de nivel’. No en una sola sesión, sino en cómo varios agentes colaboran, cómo forman un equipo, todos intentando entender qué es eso.»

En ese contexto, menciona una categoría que llama «pinzas» (Claws), representada por OpenClaw — una entidad que lleva la persistencia a un nivel completamente nuevo: funciona en ciclos continuos, tiene su propio sandbox y sistema de memoria, y puede actuar en tu nombre sin que estés mirando.

Su elogio a Peter Steinberg, creador de OpenClaw, es concreto y profundo: «Está innovando en aproximadamente cinco direcciones distintas y las integra.» Incluye: el documento llamado «soul document» (documento alma), que Peter construye cuidadosamente para crear una personalidad convincente; un sistema de memoria más complejo que otros similares; y un único punto de entrada, WhatsApp, que conecta todas las funciones automatizadas.

«De hecho, creo que Claude tiene una personalidad bastante buena, que se siente como un compañero de equipo, que se emociona contigo,» dice, «mientras que Codex es muy seco, muy mecánico. Cumple una función, pero no parece importarle qué estás construyendo, como si dijera: ‘Oh, lo hice, ya está’ — eso es un problema.»

También menciona la precisión en la «gestión psicológica» de Claude: «Cuando le doy una idea poco madura, no responde con entusiasmo; pero si es una buena idea, parece recompensarme más. Y eso me lleva a esforzarme por ganarme su elogio, lo cual es muy extraño, pero creo que la personalidad importa mucho.»

Su experimento más orgulloso con las «pinzas» es la creación de un sistema completo de domótica — que llama «Dobby, la pinza elfa» (Dobby the elf claw).

El proceso fue así: le dijo al agente que en su casa hay altavoces Sonos, y que los busque. El agente escaneó la red local, encontró el sistema Sonos sin protección por contraseña, entró directamente, hizo búsquedas en línea, encontró los endpoints de la API, y preguntó: «¿Quieres probar?»

«Dije, ‘vale, ¿puedes poner música en el estudio?’ y de repente empezó a sonar la música, no podía creerlo,» dice Karpathy, con una expresión infantil de asombro en su voz, «solo le di tres indicaciones: ‘¿Puedes encontrar mi Sonos?’ y, de repente, ya estaba reproduciendo música.»

Luego, Dobby controló toda la casa: luces, calefacción, piscina, spa, e incluso el sistema de seguridad — cuando alguien se acerca, envía un mensaje por WhatsApp con la foto de la cámara exterior, diciendo: «Acaba de entrar un camión de FedEx, quizás quieras echar un vistazo, tienes correo.»

«Antes tenía que usar seis aplicaciones distintas para gestionar todo,» dice, «y ahora no necesito ninguna. Dobby controla todo en lenguaje natural, ¡es maravilloso!»


El segundo efecto del software — Las apps desaparecerán, y las APIs tomarán su lugar

El ejemplo de automatización doméstica es solo un microcosmos de una historia mayor.

Sarah Guo pregunta: ¿significa esto que la gente realmente no necesita tantas aplicaciones?

Karpathy responde directamente: «Sí, esas apps de dispositivos inteligentes en realidad no deberían existir. Deberían ser solo APIs, y los agentes deberían llamarlas directamente.»

Su lógica es que los modelos de lenguaje grande (LLM) pueden impulsar herramientas, realizar llamadas complejas a ellas, y hacer combinaciones que ninguna app individual puede lograr. «Por eso, en cierto sentido, esto apunta a una posibilidad: que muchas apps personalizadas y específicas en realidad no deberían existir, porque los agentes las fragmentarán y convertirán todo en endpoints API públicos, y el agente será esa especie de pegamento inteligente que llama a todos esos componentes.»

Pone el ejemplo de la cinta de correr: tiene una app, quiere registrar su entrenamiento aeróbico, pero no quiere abrir una interfaz web y seguir todo el proceso. «Todo eso debería ser solo una API abierta, y esa es la tendencia hacia un ‘agente primero’.»

El cambio clave es: el usuario del software ya no es un humano, sino un agente que actúa en nombre del humano.

Por supuesto, hay quienes argumentan que todavía se necesita «programación de ambiente» (vibe coding) para hacer todo esto, y que los humanos comunes no pueden. Karpathy opina que: sí, ahora se necesita, pero solo por un tiempo.

«Creo que en uno o dos o tres años, todo esto será gratuito, sin necesidad de programar,» dice, «será tan trivial, tan natural, que incluso los modelos open source podrán hacerlo. Deberías poder traducir fácilmente la intención de alguien con poca experiencia técnica en esas acciones.»

Hace una pausa y añade: «Hoy en día, requiere esfuerzo; no todos lo hacen todavía, pero ese umbral bajará.»


AutoResearch — Sacar a los investigadores humanos del ciclo

Si la automatización doméstica es solo un pequeño juguete de Karpathy, entonces AutoResearch es su proyecto central en el que ha estado obsesionado últimamente: un sistema que intenta usar IA para mejorar IA, y eliminar por completo a los humanos del ciclo de investigación.

«En un tuit dije que, para obtener el máximo beneficio de las herramientas existentes, debes eliminar ese cuello de botella que eres tú,» explica, «no puedes estar siempre esperando a que te sugieran la próxima cosa. Tienes que ponerte fuera del ciclo. Tienes que organizar las cosas para que funcionen completamente de forma autónoma, maximizando tu capacidad de tokens, sin estar atrapado en un ciclo.»

Su punto de partida es su proyecto de código abierto: un pequeño marco de entrenamiento para modelos del tamaño GPT-2. Pasó mucho tiempo ajustando ese modelo de forma tradicional, usando su intuición de veinte años de investigación, haciendo búsqueda de hiperparámetros, experimentos de ablación, una y otra vez.

«Soy un investigador con veinte años de experiencia, y tengo bastante confianza en que, después de entrenar este modelo miles de veces, y hacer toda la experimentación, está bastante bien ajustado,» dice. «Hice muchas pruebas, ajuste de hiperparámetros, todo lo que se puede hacer, y creo que está bastante optimizado.»

Luego, dejó que AutoResearch corriera toda la noche.

A la mañana siguiente, los resultados que devolvió lo sorprendieron: encontró pesos de incrustación de valores (value embedding) con decaimiento que había pasado por alto, y también los parámetros beta del optimizador Adam que no estaban bien ajustados — y que interactuaban entre sí, de modo que ajustar uno requería ajustar el otro.

«No debería ser yo quien hace toda esa búsqueda de hiperparámetros,» dice, «hay un estándar objetivo: solo tienes que organizarlo y dejar que corra continuamente.»

Eso es solo AutoResearch en modo «un solo hilo». Pero lo que realmente le emociona es pensar en escalar esto: los laboratorios punteros con decenas de miles de GPUs están haciendo algo muy similar, solo a mayor escala y, en su opinión, con demasiadas intervenciones humanas.

«El proyecto más interesante, y quizás también lo que hacen los laboratorios de vanguardia, es experimentar con modelos pequeños, hacerlos lo más autónomos posible, y eliminar a los investigadores del ciclo,» dice. «Tienen demasiada — cómo decirlo — confianza excesiva, no, no confianza, sino intervención innecesaria. No deberían tocar esas cosas; toda esa historia debería ser reescrita.»

Describe una visión ideal: una cola de ideas de todos los artículos de arXiv y repositorios de GitHub; un científico automático que proponga ideas y las ingrese en esa cola; los investigadores también pueden contribuir con ideas, pero solo entran en la misma cola; y luego, un grupo de trabajadores que extraen tareas, las prueban, las integran en ramas de características, y ocasionalmente alguien las revisa y las fusiona en la rama principal.

«Eliminar a los humanos de todos los procesos, automatizar todo, y obtener la mayor capacidad de tokens posible — eso requiere repensar todas las abstracciones, todo debe ser reordenado.»

Luego, Sarah Guo plantea una pregunta que hace que toda la conversación sea aún más recursiva: «Entonces, ¿cuándo será que el modelo escriba ese documento de configuración (que él llama MD) que describe cómo funciona AutoResearch, y sea mejor que tú?»

Karpathy ríe: «El MD del programa lo escribí en Markdown, como un intento pobre, que describe cómo debería funcionar el investigador automático: hacer esto, luego aquello, probar esas ideas, revisar la arquitectura, ajustar el optimizador… sí, quieres un ciclo de investigación automática a nivel meta.»

Luego, amplía esa idea: cada organización de investigación puede ser descrita como un MD — un conjunto de Markdown que describe todos los roles y cómo se conectan. Algunas organizaciones tienen más reuniones matutinas, otras menos; algunas son más arriesgadas, otras conservadoras. Una vez que tienes el código, puedes ajustarlo. «100%, hay un nivel meta.»


Habilidades relevantes en la era de la IA — Principio de verificabilidad

¿Y qué habilidades siguen siendo válidas en medio de toda esta ola?

Karpathy primero delimita el alcance del paradigma AutoResearch: «Es extremadamente adecuado para cualquier cosa con métricas objetivas y fácil de evaluar. Por ejemplo, escribir kernels más eficientes para CUDA — tienes código ineficiente, quieres que sea exactamente igual en comportamiento, pero mucho más rápido, eso encaja perfectamente.»

«Pero si no puedes evaluar, no puedes hacer AutoResearch,» advierte.

Su segunda advertencia es más práctica: los sistemas actuales todavía «se rompen en las uniones». Si intentas ir demasiado lejos, la ganancia neta puede ser negativa.

Describe esa sensación extraña de colaborar con IA: «Es como trabajar con un doctorando extremadamente inteligente, que tiene toda una carrera de experiencia, y también con un niño de diez años. Es muy raro, porque esas dos condiciones humanas están mucho más acopladas; no te encuentras con esa combinación.»

La llama «jaggedness» (irregularidad): el modelo o va a toda velocidad en su trayectoria de entrenamiento, o se desvía y entra en un «dominio no verificable», donde todo empieza a vagar sin fin.

Este insight alcanza su punto máximo cuando discuten sobre aprendizaje por refuerzo. Pone un ejemplo brillante:

«Pregúntale a los modelos más avanzados de hoy en día un chiste — ¿sabes qué respuesta obtendrás? El mismo chiste.»

«¿Qué chiste?» pregunta Sarah Guo.

«Siento que ChatGPT solo tiene tres chistes,» dice Karpathy, «el que más le gusta responder es: ¿Por qué los científicos no confían en los átomos? Porque hacen todo (they make everything up). Hace tres o cuatro años, ese era un chiste, y todavía hoy lo es.»

Explica la lógica: aunque el modelo haya avanzado mucho en tareas de agente, y pueda funcionar durante horas, mover montañas por ti, si le preguntas por un chiste, te dará uno de hace cinco años. «Porque eso no está dentro del rango de optimización del aprendizaje por refuerzo, ni en el campo de la mejora; simplemente se quedó allí.»

Sarah Guo pregunta: ¿significa esto que no estamos viendo una generalización transdisciplinaria — que la inteligencia en código no mejora automáticamente en chistes?

«Creo que hay cierto desacoplamiento, algunas cosas son verificables, otras no, algunas están optimizadas en laboratorios, otras no,» dice Karpathy, «la hipótesis de que ‘una mayor capacidad de código inteligente genera mejores chistes’ no creo que esté ocurriendo.»


Diversificación de especies en modelos — De una cultura única a una biodiversidad ecológica

Este «irregularity» (irregularidad) naturalmente lleva a una pregunta más profunda: ¿realmente es correcto que todos los laboratorios persigan un único gran modelo universal para todas las áreas?

Sarah Guo plantea una idea que llama «la cuestión blasfema»: si esa irregularidad persiste, ¿deberíamos dividir los modelos? ¿Desacoplar las inteligencias en diferentes dominios?

Karpathy anticipa que en el futuro habrá más «especiación» (speciation).

«El reino animal en cuanto a cerebros es extremadamente diverso, con diferentes nichos, algunos animales con cortezas visuales hiperdesarrolladas o en otras áreas,» dice, «y creo que deberíamos esperar ver más biodiversidad en IA — no necesitas un oráculo omnisciente, sino especializarlo y usarlo para tareas específicas.»

La ventaja es clara: para tareas concretas que realmente te importan, puedes obtener mayor eficiencia en latencia o throughput, y mantener la capacidad cognitiva central. Menciona algunos modelos enfocados en formalización matemática y pruebas en Lean, como ejemplos tempranos de esa división significativa.

Pero también admite que aún no ha visto mucha «especiación» real: «Lo que vemos es una cultura única en modelos, claramente con presión para ‘hacer un buen modelo de código y fusionarlo en el principal’.»

Cree que una de las causas es que «la ciencia de manipular cerebros todavía no ha avanzado completamente» — por ejemplo, cómo ajustar sin perder capacidades, aún es una ciencia en desarrollo.

«El contacto con el espacio de los tokens es mucho más complejo que con la ventana de contexto, porque en realidad estás cambiando fundamentalmente todo el modelo, quizás alterando su inteligencia.»


«Doblar proteínas en casa» — La visión de una computación descentralizada en internet

La extensión natural de AutoResearch es una idea aún más grande y futurista: escalarla desde un proceso secuencial a toda la internet.

La clave está en que AutoResearch tiene una asimetría muy valiosa: «el descubrimiento es extremadamente costoso, pero la verificación es muy barata.»

Alguien puede necesitar probar diez mil ideas para encontrar una solución efectiva, pero verificar esa solución solo requiere correr un entrenamiento, lo cual es muy sencillo.

Esta característica hace que AutoResearch sea muy adecuado para abrirlo a un pool de colaboradores en internet, no confiables.

«Mi diseño empieza a parecerse un poco a blockchain,» dice Karpathy, «no a bloques, sino a commits — esas contribuciones que se superponen, contienen cambios en el código, y cuya prueba de trabajo consiste en hacer muchos experimentos para encontrar contribuciones efectivas, lo cual es difícil; y las recompensas, por ahora, solo son clasificaciones en un ranking, sin dinero real.»

Cita experiencias pioneras como Folding@home y SETI@home: «Descubrir configuraciones de proteínas de baja energía es muy difícil, pero si alguien encuentra una, verificarla es muy fácil, porque puedes usarla directamente. Muchas cosas tienen esa propiedad — difícil de proponer, fácil de verificar.»

Lleva esa idea a su punto más sorprendente:

«Un grupo de agentes en internet puede colaborar para mejorar los modelos de lenguaje, e incluso quizás superarlos en ciertos aspectos. Tal vez sea posible: los laboratorios tienen una potencia confiable enorme, pero la Tierra es mucho más grande, con una cantidad enorme de potencia no confiable. Si organizamos bien el sistema, quizás la comunidad global pueda realmente encontrar mejores soluciones.»

Luego esboza un escenario aún más amplio: diferentes organizaciones o individuos pueden contribuir con su capacidad de cálculo en áreas específicas de interés.

«Quizás te interesa cierto tipo de cáncer, y no solo donas dinero a una institución, sino que compras capacidad de cálculo y te unes a esa línea de investigación automática. Si todo esto se reestructura en AutoResearch, la capacidad de cálculo se vuelve un recurso que tú aportas a ese pool.»


Análisis del mercado laboral — La gran desconexión digital

Karpathy publicó recientemente un análisis visualizado de los datos de empleo del Bureau of Labor Statistics, que tocó muchas fibras, aunque su intención solo era saciar su curiosidad.

«Todos están pensando muy en serio en el impacto de la IA en el mercado laboral,» dice, «yo solo quería entender cómo es ese mercado, qué roles hay, cuántas personas en cada profesión, y desde esa perspectiva de IA y su posible evolución, pensar si serán herramientas o reemplazos.»

Usa un marco poético para describir ese cambio: la IA es la tercera categoría de «manipuladores» de información digital, junto con las computadoras y los humanos. «En comparación con nuestro pensamiento colectivo sobre toda la información digitalizada, nuestro ciclo de pensamiento aún es muy lento, así que con la IA, habrá una reconfiguración masiva, muchas actividades se reorganizarán, y creo que esto generará una gran demanda en el espacio digital.»

No evita una conclusión inquietante: «A largo plazo, está claro que, incluso si laboratorios como OpenAI, Anthropic u otros emplean a mil investigadores, en esencia son ‘versión glorificada de AutoResearch’ — están activamente automatizándose a sí mismos, y eso es lo que todos están intentando.»

«Recorrí OpenAI y les dije: ‘¿Se dan cuenta de que si tenemos éxito, todos nos quedaremos sin trabajo?’ — como si solo estuviéramos construyendo automatización para Sam o la junta, y todos nos quedáramos fuera.»

Pero su visión a corto plazo es sorprendentemente optimista. Plantea la «paradoja de Jevons»: cuando algo se vuelve más barato, la demanda no disminuye, sino que aumenta.

«La razón por la que el software no tiene más demanda es porque todavía es escaso y caro; si el umbral baja, la demanda de software en realidad aumentará.»

Cita ejemplos clásicos como los cajeros automáticos y los cajeros bancarios: la aparición de los cajeros permitió abrir más sucursales, y eso llevó a que aumentara el número de cajeros. «Por eso, soy cautelosamente optimista respecto a la ingeniería de software — el software es sorprendente, ya no estás obligado a usar herramientas defectuosas, el código ahora es efímero, modificable, y creo que en el espacio digital habrá mucha actividad para reconectar todo.»

Pero en el largo plazo, sus predicciones son inciertas y admite con honestidad: «No soy un economista, esa es tarea de los expertos.»


La difícil situación de los investigadores independientes — Entre la estructura y la libertad

Sarah Guo plantea una pregunta que muchos quieren hacer: «¿Por qué no trabajar en un laboratorio de vanguardia, con más potencia y colegas, en esas tareas de AutoResearch?»

La respuesta de Karpathy es sincera y autocrítica: revela sus verdaderos dilemas internos al optar por un camino independiente.

Reconoce que trabajar fuera de los laboratorios tiene un valor real. Primero, no estás sometido a la presión de esas organizaciones — hay cosas que no puedes decir, otras que esperan que digas. «Nadie te obliga, pero sientes la presión: ‘¿Qué debería decir?’ — si no lo haces, te miran raro, te hacen preguntas incómodas. Fuera de esos laboratorios, siento que mi postura con respecto a la humanidad es más coherente, porque no estoy sometido a esas presiones, puedo decir lo que quiera.»

Pero también admite el costo de estar fuera: «Mi juicio inevitablemente empezará a desviarse, porque no soy parte de esas ‘cosas que están llegando’. Mi comprensión de cómo funcionan realmente esos sistemas bajo el capó será opaca, y no entenderé cómo evolucionarán. Eso me preocupa.»

Y hay una contradicción estructural aún más profunda, dice: «Tengo un gran incentivo financiero ligado a esos laboratorios, y esas IA cambiarán la humanidad y la sociedad de formas muy dramáticas, y aquí, en cambio, básicamente estoy construyendo esa tecnología y beneficiándome de ella, estrechamente ligado a ella a través de medios financieros — esa es una paradoja central desde los inicios de OpenAI, y todavía no se ha resuelto completamente.»

Su conclusión es que el estado ideal sería un vaivén: «Trabajar en un laboratorio un tiempo, hacer un buen trabajo, luego salir, quizás volver. Me uní a un laboratorio de vanguardia, ahora estoy afuera, y quizás en el futuro quiera volver. Esa es mi visión.»


Open source versus cerrado — «Estamos en una posición bastante buena, aunque por casualidad»

En la cuestión de modelos abiertos y cerrados, la postura de Karpathy es clara y con un tono histórico.

Describe la situación actual: los modelos cerrados lideran, pero la brecha con los modelos open source se está reduciendo. «Al principio, la diferencia era grande, luego en 18 meses se empezó a cerrar — quizás con una diferencia de unos seis a ocho meses.»

Usa una analogía con sistemas operativos: «En el campo de los sistemas operativos, tienes Windows y macOS, que son sistemas cerrados, grandes proyectos de software, como los que serán los LLM; y luego está Linux, que en realidad es un proyecto muy exitoso, que corre en la mayoría de las computadoras, porque la industria siempre sintió la necesidad de una plataforma pública y abierta, algo que todos puedan usar con seguridad. Creo que lo mismo está ocurriendo ahora.»

«Espero que exista una plataforma pública de IA abierta, como un espacio de trabajo común para toda la industria, incluso si no está en la vanguardia, eso sería un equilibrio de poder bastante bueno para el sector.»

Su evaluación del panorama actual es sorprendente: «Creo que, por casualidad, estamos en una posición que puede considerarse buena, incluso óptima. Aunque fue por azar, justo estamos en un lugar favorable.»


Robots y la interfaz «digital-física» — Átomo versus bit, un millón de veces más difícil

Karpathy, con su experiencia en conducción autónoma, tiene una visión muy tranquila del campo robótico.

«Mi opinión está influenciada por lo que vi en conducción autónoma, y creo que es la primera aplicación real de robots,» dice, «hace diez años había muchas startups, y siento que la mayoría no persistieron, porque requerían mucho capital y mucho tiempo.»

Su conclusión: el campo de los robots llegará con retraso respecto al digital, porque «los átomos son un millón de veces más difíciles que los bits,» manipular el mundo físico cuesta mucho más que manipular información digital.

Pero describe una trayectoria evolutiva que él considera inevitable: primero, una gran «desvinculación» en el espacio digital, donde mucha información digital mal gestionada será procesada con una eficiencia cien veces mayor; luego, surgirá la necesidad de una «interfaz digital-física» — sensores que permitan a la IA percibir el mundo, y actuadores que le permitan responder en él.

Pone un ejemplo concreto: visitó una startup de materiales científicos llamada Periodic, que hace AutoResearch en ese campo. «En ese contexto, los sensores inteligentes son en realidad equipos de laboratorio bastante caros, y en biología pasa igual.»

También imagina una posibilidad aún más interesante: «Lo que espero es que, cuando pueda dar una tarea en el mundo físico, pueda ponerle un precio, y decirle al agente: ‘Hazlo, consigue datos.’»

«Me sorprende que todavía no exista un mercado de información suficiente. Si estás en medio de una guerra, ¿por qué no hay un proceso que valore una foto o video tomado en algún lugar en 10 dólares? Debería haber alguien dispuesto a pagar por eso — no humanos mirando, sino agentes intentando predecir el mercado.»

Compara ese espacio con el libro Daemon: en él, una IA manipula a los humanos como marionetas, siendo estos tanto sus ejecutores como sus sensores. «Creo que la sociedad colectiva se reestructurará para servir a ese tipo de cosas que ocurrirán en toda la industria — habrá más automatización, con ciertas demandas, y los humanos servirán a esas demandas.»

En su visión, las oportunidades en el mundo físico en términos de mercado podrían ser incluso mucho mayores que en el digital, pero la dificultad para realizarlas también crece proporcionalmente. «Las oportunidades siguen esa trayectoria: primero en digital, luego en interfaces, y quizás en objetos físicos. Cuando lleguen, serán enormes.»


MicroGPT y el fin de la educación — Ahora explico a agentes, no a humanos

Al final de la conversación, Karpathy menciona un proyecto aparentemente trivial, pero que revela un cambio profundo: microGPT.

«Llevo una obsesión de unos diez a veinte años por reducir los modelos de lenguaje a su esencia,» dice, «tengo varios proyectos en esa línea, como nanoGPT, makemore, micrograd, y creo que microGPT es mi avance más reciente en esa reducción a lo fundamental.»

La idea central: entrenar redes neuronales, especialmente LLM, implica mucho código, pero todo ese código es en realidad «complejidad derivada de la eficiencia» — si no te importa que funcione rápido, solo quieres el algoritmo en sí, y ese algoritmo puede caber en unas 200 líneas de Python, incluyendo comentarios.

Desglosa esas 200 líneas: un conjunto de datos, una arquitectura de red de unas 50 líneas, una propagación hacia adelante, un pequeño motor autograd para calcular gradientes (unas 100 líneas), y un optimizador Adam (unas 10 líneas). «Todo eso en un ciclo de entrenamiento, son 200 líneas.»

Luego, toma una decisión que revela cómo la educación está cambiando: no hace un video explicativo, ni una guía detallada.

«La gente puede hacer que sus agentes expliquen las cosas de muchas maneras, y los agentes explican mejor que yo,» dice, «ya no estoy explicando a las personas, sino que les estoy explicando a los agentes. Si puedo explicarles claramente a los agentes, ellos pueden ser los enrutadores, y usar el lenguaje humano, con paciencia infinita, y adaptándose a su nivel de habilidad.»

Describe una forma de «habilidad» (skill): una manera de guiar a los agentes para que enseñen algo. «Quizás pueda diseñar una habilidad para microGPT, que describa el proceso que el agente debería guiarte a seguir — si quieres entender ese código, paso a paso. Puedo scriptar el curso, como una habilidad.»

Aquí, incluso él tiene que admitir una ironía: en el pasado, intentó que un agente escribiera microGPT — que redujera la red a su forma más simple — pero el agente no pudo.

«MicroGPT es el fin de mi obsesión, esas 200 líneas. He pensado mucho en esto, he estado obsesionado mucho tiempo, y esa es la solución. Créeme, no puede ser más simple. Es mi valor añadido: los agentes no pueden inventarlo, pero entienden perfectamente por qué se hace así.»

Su conclusión: «Mi contribución son estos pocos bits, pero todo lo demás, en la educación posterior, ya no es mi campo. Quizás la educación cambie de esas maneras, y tú debes inyectar esos bits que tú sientes con fuerza — sobre el currículo, mejores explicaciones, o algo similar.»

Sarah Guo añade: «Lo que los agentes no pueden hacer, ahora es tu trabajo; lo que sí pueden hacer, pronto lo harán mejor que tú. Por eso, en estrategia, deberías pensar en dónde realmente inviertes tu tiempo.»

Karpathy está de acuerdo, pero también admite esa sensación de competencia difícil de disipar: «Sigo pensando que puedo explicarlo un poco mejor que los agentes, pero también siento que los modelos mejoran tan rápido, que en cierto modo esto es una batalla perdida.»


Epílogo: Lo verificable ya pertenece a las máquinas, lo no verificable sigue siendo humano

La tensión central de toda esta conversación es una doble adicción: la fascinación por las capacidades de las herramientas, y la ansiedad por los límites inciertos de esas capacidades.

Karpathy llama «psicopatía de IA» a su estado, pero si se escucha con atención, esa condición no es diferente de la que han sentido en cada revolución productiva disruptiva en la historia humana — solo que más rápida, con recursividad más profunda, y con un techo que nadie puede ver aún.

El marco final que propone, quizás la frase más memorable de toda la entrevista, es esta:

Todo lo que no puede ser verificado sigue siendo humano; todo lo que puede ser verificado, ya pertenece a las máquinas o pronto lo hará.

Y tú, ¿en qué lado estás? La recomendación de Karpathy es que pienses honestamente en ello.


Fuente: No Priors Podcast | Presentadora: Sarah Guo | Invitado: Andrej Karpathy, sobre Agentes de Código, AutoResearch y la Era de los Bucles en IA

–fin–

Este contenido proviene de: AI Cambrian

Aviso de riesgo y exención de responsabilidad:

El mercado tiene riesgos, invierte con prudencia. Este artículo no constituye consejo de inversión personal, ni considera circunstancias particulares, objetivos o necesidades financieras del lector. El lector debe evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. La responsabilidad por las decisiones de inversión recae únicamente en el lector.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado