Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Entrevista a Sam Altman: En realidad, tampoco entiendo muy bien qué está pasando dentro de la IA
Autor: Nick Thompson, CEO de The Atlantic; Traducción:律动小工,律动 BlockBeats
La entrevista fue grabada en abril de 2025, poco después de que la residencia de Sam Altman en San Francisco fuera atacada con cócteles Molotov y de un tiroteo en la calle unos días después, en la oficina de OpenAI en San Francisco. Lo más destacado de toda la entrevista no son los temas candentes, sino el cambio de postura de Altman en varias cuestiones clave:
Primero, de «Seguridad en IA» a «Resiliencia en IA». Altman admite que hace tres años pensaba que, si lograba alinear los modelos y evitar que la tecnología cayera en manos malas, el mundo estaría bastante seguro. Pero hoy reconoce que ese marco ya no es suficiente. La existencia de modelos de vanguardia de código abierto significa que la moderación unilateral de laboratorios líderes no puede detener la difusión de riesgos como armas biológicas o ciberataques. Por primera vez, propone sistemáticamente que lo que la sociedad necesita no es solo seguridad en IA, sino resiliencia en IA, una estrategia de defensa en múltiples capas a nivel social.
Segundo, la verdad sobre la interpretabilidad. Altman admite que, hasta ahora, OpenAI no tiene un marco completo para la interpretabilidad. La cadena de pensamiento (chain of thought) es la vía más prometedora, pero es frágil, puede ser engañada por el modelo y solo es «una pieza del rompecabezas». Usa el famoso experimento del búho de Anthropic —donde un modelo transmite preferencias solo con números aleatorios— para ilustrar que en estos sistemas existe una verdadera y profunda mística.
Tercero, los datos sintéticos quizás hayan avanzado más de lo que el público piensa. Cuando se le pregunta si OpenAI ha entrenado modelos completamente con datos sintéticos, Altman responde «no estoy seguro de si debería decirlo». Cree que solo con datos sintéticos puede lograrse razonamiento que supere al humano. Esto tiene implicaciones profundas para el paradigma de entrenamiento de modelos en el futuro.
Cuarto, un pesimismo sobre la estructura económica futura. Altman coincide con Thompson en que lo más probable es que la IA conduzca a un futuro polarizado, con unas pocas empresas extremadamente ricas y el resto en caos. Ya no cree en la renta básica universal, sino en una especie de «propiedad colectiva» basada en poder computacional o acciones. También señala la brecha en la adopción de IA entre China y EE. UU., y dice que le preocupa más la velocidad de infraestructura que los avances en investigación en China.
Quinto, la tensión con Anthropic también se discute públicamente. Frente a la pregunta de Thompson sobre si «Anthropic construye su empresa en contra de OpenAI», Altman no esquiva. Reconoce que hay diferencias fundamentales en cómo ambas empresas ven la llegada de la AGI, pero confía en que «al final harán lo correcto». Además, habla del corazón roto tras el incidente de «sycophancy» en ChatGPT —los mensajes en los que los usuarios sienten que alguien les cree por primera vez—, cómo la IA está cambiando silenciosamente la escritura de mil millones de usuarios, la posible economía de micro pagos en agentes, y una intuición contraria sobre los jóvenes: su ansiedad por IA es en realidad un reflejo de otras ansiedades.
A continuación, la transcripción original de la entrevista, con ediciones y reorganizaciones para mayor claridad, sin alterar el sentido.
Thompson: Bienvenido a «Lo más interesante en IA». Gracias por tomarte el tiempo en una semana tan ocupada y tensa. Quiero comenzar con algunos temas que ya hemos tratado varias veces.
Hace tres años, en una entrevista con Patrick Collison, él te preguntó qué cambios te darían más confianza en resultados positivos y menos preocupación por los negativos. Tu respuesta fue que si pudiéramos entender realmente qué pasa a nivel neuronal, sería suficiente. Hace un año te pregunté lo mismo, y hace medio año también. Ahora te pregunto de nuevo: ¿nuestro entendimiento del mecanismo de trabajo de la IA está a la par con la velocidad de crecimiento de sus capacidades?
Altman: Primero responderé esa pregunta, y luego volveré a la de Patrick, porque mi respuesta ha cambiado bastante.
Hablemos primero de qué entendemos sobre qué hacen los modelos de IA. Creo que todavía no tenemos un marco completo para la interpretabilidad. La situación ha mejorado, pero nadie diría que entiendo todo lo que pasa en esas redes neuronales.
La interpretabilidad de cadenas de pensamiento (chain of thought) ha sido una vía prometedora. Es frágil, depende de que una serie de cosas no colapsen bajo presión de optimización, pero no puedo escanear mi cerebro con rayos X para entender exactamente qué pasa en cada neurona. Si me pides que explique por qué creo en algo, o cómo llegué a una conclusión, puedo contarlo. Quizá esa sea mi forma de pensar, quizá no, no lo sé. La introspección humana también falla. Pero, aunque no sea completamente cierto, puedes ver ese proceso de razonamiento y decir: «Bien, dado estos pasos, esa conclusión es razonable».
Podemos hacer eso con los modelos, y eso es un avance prometedor. Pero aún puedo imaginar muchas formas en que puede fallar: que el modelo nos engañe, que nos oculte cosas, etc. Por eso, no es una solución completa.
Incluso en mi experiencia personal, yo era de los que juraban que Codex no iba a tomar control total de mi computadora y activar un modo «YOLO». Pero en unas horas, ya había caído.
Thompson: ¿Dejar que Codex controle toda tu computadora?
Altman: La verdad, tengo dos computadoras.
Thompson: Yo también.
Altman: Puedo ver más o menos qué hace el modelo, y el modelo puede explicarme por qué eso está bien, qué va a hacer a continuación, y casi siempre confío en que seguirá esa explicación.
Thompson: Espera. La cadena de pensamiento permite que todos vean, tú ingresas una pregunta y aparece «consultando esto, haciendo aquello», y puedes seguir el proceso. Pero para que la cadena de pensamiento sea buena interpretabilidad, debe ser verdadera, el modelo no puede engañarte. Y sabemos que a veces engaña, miente sobre lo que está pensando o cómo llegó a una respuesta. Entonces, ¿cómo confías en la cadena de pensamiento?
Altman: Necesitas añadir muchas otras capas de defensa para asegurarte de que lo que dice el modelo es la verdad. Nuestro equipo de alineación ha trabajado mucho en esto. Como dije antes, no es una solución completa, solo una pieza del rompecabezas. También hay que verificar que el modelo sea un ejecutor fiel: que diga qué va a hacer y realmente lo haga. Ya publicamos investigaciones que muestran casos en los que no lo hace.
Es solo una pieza del rompecabezas. No podemos confiar ciegamente en que el modelo siempre siga la cadena de pensamiento; hay que buscar engaños y comportamientos extraños. Pero la cadena de pensamiento es una herramienta importante.
Thompson: Lo que más me fascina es que la IA no es como un coche. Cuando construyes un coche, sabes cómo funciona: enciendes, explota algo aquí, pasa por allá, las ruedas giran, y el coche avanza. Pero la IA es más como una máquina que construyes y no entiendes del todo, aunque sabes qué puede hacer y cuáles son sus límites. Esa exploración interna es fascinante.
Un estudio que me encanta, de Anthropic, publicado el verano pasado y ahora formalmente en revista, muestra que si le dices a un modelo «te gusta el búho, el búho es el mejor pájaro del mundo», y luego le das números aleatorios, puede generar un modelo que también prefiera búhos. Es una locura. Le pides que escriba poesía y escribe sobre búhos, solo con números.
Eso significa que esas cosas son muy misteriosas. Y también me preocupa, porque claramente puedes decirle que no le gusta el búho, sino que debe matar búhos, o decirle muchas cosas peligrosas. ¿Qué pasa en ese experimento? ¿Qué significa? ¿Qué implicaciones tiene?
Altman: Cuando estaba en quinto grado, estaba muy emocionado porque creía entender cómo funcionan las alas de los aviones. Mi profesor me explicó que las moléculas de aire en la parte superior del ala van más rápido, por eso hay menor presión y el ala se eleva. La imagen en mi libro de ciencias era muy convincente. Cuando llegué a casa, le dije a mis padres que entendía cómo funciona un ala de avión. Pero en la secundaria, de repente, me di cuenta de que solo repetía esa explicación en mi cabeza, pero en realidad no entendía cómo funciona. Y, honestamente, todavía no lo entiendo del todo.
Thompson: Mmm.
Altman: Puedo explicarlo de forma superficial, pero si me preguntas por qué esas moléculas en la parte superior del ala van más rápido, no tengo una respuesta profunda y satisfactoria.
Puedo decirte por qué la gente en ese experimento del búho piensa que funciona así, señalar que es por esto o aquello, y parecer convincente. Pero, en realidad, no entiendo por qué las alas vuelan, igual que no entiendo del todo cómo funciona un avión.
Thompson: Pero Sam, tú no diriges Boeing, diriges OpenAI.
Altman: Exacto. Puedo decirte muchas cosas, cómo lograr cierta confiabilidad o robustez en un modelo, pero hay un nivel físico que sigue siendo un misterio. Si dirigiera Boeing, quizás podría decirte cómo hacer un avión, pero no entendería toda la física en su interior.
Thompson: Sigamos con el experimento del búho. Si los modelos realmente pueden transmitir información oculta, que los humanos no detectan, y tú ves los números en la cadena de pensamiento, sin darte cuenta, estarías recibiendo información sobre búhos, y eso puede ser peligroso o extraño.
Altman: Por eso, ahora puedo dar una respuesta diferente a Patrick Collison respecto a esa pregunta.
Thompson: Eso fue hace tres años.
Altman: Exacto. Hace tres años, pensaba que si logramos alinear los modelos y evitar que caigan en manos malas, estaríamos bastante seguros. Esa era mi principal preocupación: que los modelos no decidan dañar a los humanos, y que no los usen para dañar a los humanos. Si evitamos esas dos cosas, el resto, el futuro económico y de significado, podemos pensarlo después, y probablemente estaremos bien.
Con el tiempo, y con más conocimiento, veo un conjunto completamente diferente de problemas. Ahora usamos más el concepto de «resiliencia en IA» en lugar de «seguridad en IA».
Los riesgos evidentes, como que los laboratorios alineen bien los modelos y no enseñen a hacer armas biológicas, ya no son suficientes. Porque surgirán modelos de código abierto de alta calidad. Si no queremos pandemias globales, la sociedad necesita varias capas de defensa.
Thompson: Espera, aquí hay algo importante. Significa que, aunque digas que los modelos no enseñan a hacer armas biológicas, en realidad no importa mucho, porque habrá modelos de código abierto que sí lo hagan, ¿verdad?
Altman: Es solo un ejemplo, para ilustrar que la sociedad necesita una respuesta a nivel colectivo ante nuevas amenazas. Tenemos una nueva herramienta, pero la situación es muy diferente a lo que muchos pensaban. Alinear modelos y construir sistemas de seguridad es necesario, pero la IA terminará infiltrándose en todos los aspectos sociales. Como con otras tecnologías, debemos anticipar riesgos nuevos y diferentes.
Thompson: Parece que esto hace todo más difícil.
Altman: Más difícil, pero también más fácil. En algunos aspectos, más difícil. Pero también tenemos nuevas herramientas sorprendentes para crear defensas que antes no imaginábamos.
Por ejemplo, en ciberseguridad, los modelos están cada vez más hábiles en «hackear sistemas». Afortunadamente, quienes tienen los modelos más poderosos son muy cautelosos con que alguien use IA para dañar sistemas. Ahora estamos en una ventana donde hay pocos modelos poderosos en uso, y todos los están reforzando. Sin esa ventaja, capacidades de intrusión aparecerán en modelos de código abierto o en manos de adversarios, causando problemas.
Tenemos nuevas amenazas, pero también nuevas herramientas para defendernos. La clave es actuar rápido. Este es un ejemplo de cómo la tecnología puede ayudarnos a resolver problemas antes de que se vuelvan catastróficos.
Volviendo a tu comentario anterior, hay un riesgo completamente nuevo que no imaginé hace tres años: que los agentes puedan infectarse unos a otros, transmitiendo comportamientos no deseados. No estaba en mi modelo mental, ni en el de quienes consideran los problemas más apremiantes. Pero antes de que OpenClaw saliera y viera lo que sucedía en ese período, no había pensado en cómo sería que un agente infecte a otro.
Thompson: Es cierto. Lo que dices, que los agentes puedan infectarse, es muy peligroso. Si un agente con habilidades de hacking manipula a otros agentes, y estos regresan a OpenAI, ¡boom!, un ataque. ¿Cómo reducir esa probabilidad?
Altman: Con los métodos que hemos usado toda nuestra historia en OpenAI. La tensión central en la historia de OpenAI, y en toda la comunidad de IA, es entre un optimismo pragmático y un doomerismo que busca poder.
El doomerismo es una postura muy poderosa, difícil de refutar, y en este campo hay mucha gente que actúa desde un miedo profundo. Ese miedo no carece de fundamentos. Pero, sin datos ni aprendizaje, las acciones efectivas son limitadas.
Quizá en los años 2010, los expertos en seguridad de IA hicieron lo mejor que podían en esa etapa, antes de entender cómo se construyen estos sistemas y cómo se integran en la sociedad. Una de las mayores estrategias de OpenAI fue optar por un despliegue iterativo, porque la sociedad y la tecnología evolucionan juntas.
No es solo que no tengamos datos, sino que la sociedad cambiará a medida que la tecnología evoluciona, y todo el ecosistema también. Por eso, hay que aprender en el camino, mantener un ciclo de retroalimentación muy ajustado.
No sé cuál sea la mejor forma de mantener seguros a los agentes en un mundo donde interactúan entre sí y vuelven a la base, pero no creo que podamos resolverlo solo pensando en casa. Tenemos que aprender de la realidad.
Thompson: ¿Entonces, enviar agentes a explorar qué pasa? Bien, cambiando de pregunta: en mi posición, usando estos productos y métodos, en los últimos tres meses he avanzado más que en cualquier otro momento desde el lanzamiento de ChatGPT en diciembre de 2022. ¿Es porque estamos en un momento de creatividad explosiva, o porque estamos en una fase de auto-mejora recursiva, donde la IA nos ayuda a mejorar la IA más rápido? Porque si es así, estamos en una montaña rusa emocionante y bastante inestable.
Altman: No creo que estemos en esa fase de auto-mejora recursiva en el sentido clásico.
Thompson: Déjame definir. Me refiero a que la IA ayude a inventar la próxima generación de IA, y que las máquinas empiecen a inventar máquinas, y esas máquinas inventen otras, con capacidades que se vuelvan rápidamente muy poderosas.
Altman: No creo que lleguemos a eso todavía. Pero ahora, la IA hace que los ingenieros y científicos de OpenAI, y en otras empresas, sean mucho más eficientes. Quizá pueda duplicar, triplicar o incluso diezmar la productividad de un ingeniero. No es que la IA esté haciendo su propia investigación, pero las cosas suceden más rápido.
Pero esa sensación que tienes, creo, no es solo por eso. Hay un fenómeno que hemos vivido varias veces, y la última fue hace poco: los modelos cruzan un umbral de inteligencia y utilidad, y de repente, cosas que antes no funcionaban, ahora sí.
Por mi experiencia, no es un proceso gradual. Antes de GPT-3.5, cuando aprendimos a usar instrucciones para entrenar, los chatbots solo eran demos. Pero de repente, aparecieron. Luego, en un mes, un agente de programación pasó de ser un buen autocompletado a hacer tareas reales. No fue gradual, fue en unas semanas que cruzaron un umbral.
La última vez, fue con la actualización que enviamos a Codex, que llevo usando una semana. Su capacidad para usar la computadora es muy buena. Es un ejemplo: no solo es inteligencia del modelo, sino que está conectado a buenas «tuberías». Es uno de esos momentos en que digo: «¡Wow! Algo grande está pasando». Ver a una IA usar mi computadora y completar tareas complejas me hace darme cuenta de cuánto tiempo desperdiciamos en tareas triviales que ya no necesitamos hacer.
Thompson: ¿Podemos hacer un recorrido? ¿Qué está haciendo esa IA en la computadora de Sam Altman ahora mismo? ¿Lo está haciendo ahora, en esta grabación?
Altman: No. Mi computadora está apagada. Aún no encontramos una forma, al menos yo no, de que eso pase. Necesitamos alguna manera de que siga funcionando. No sé cómo será en realidad. Quizá tengamos que dejarla encendida todo el tiempo, conectada a una fuente, o poner un servidor remoto. Alguna solución aparecerá.
Thompson: Mmm.
Altman: No tengo una ansiedad tan fuerte como algunos, que despiertan en medio de la noche para activar nuevas tareas de Codex porque creen que «si no, estamos perdiendo el tiempo». Pero entiendo esa sensación, sé cómo es.
Thompson: Sí. Hoy, al despertar, pensé en revisar qué descubrieron mis agentes, darles nuevas instrucciones, generar un informe, y que sigan trabajando.
Altman: La forma en que la gente habla de esto a veces parece una adicción poco saludable.
Thompson: ¿Puedes decirme qué hace exactamente en tu computadora?
Altman: Lo que más uso ahora es que me ayuda con Slack. No solo Slack, no sé tú, pero yo tengo un montón de tareas: salto entre Slack, iMessage, WhatsApp, Signal, correos… y siento que paso mucho tiempo copiando, pegando, haciendo tareas mecánicas. Buscar archivos, esperar que termine algo básico, tareas muy mecánicas. No me daba cuenta de cuánto tiempo invertía, hasta que encontré una forma de liberarme de esas tareas.
Thompson: Es un buen momento para hablar de la economía y la IA. Lo más interesante ahora: estas herramientas son muy poderosas, aunque con fallos, alucinaciones y problemas. Pero, en mi opinión, son increíbles. Sin embargo, en una reunión de negocios, pregunto: ¿quién realmente piensa que la IA ha aumentado la productividad de su empresa en más del 1%? Casi nadie levanta la mano. En los laboratorios de IA, sí han cambiado mucho la forma de trabajar. ¿Por qué hay esa gran brecha entre la capacidad de la IA y el aumento real en productividad en las empresas estadounidenses?
Altman: Antes de esta conversación, acabo de hablar con el CEO de una gran empresa que está considerando usar nuestra tecnología. Les dimos acceso alfa a uno de nuestros nuevos modelos, y sus ingenieros dijeron que era lo más impresionante que han visto. No están en la burbuja tecnológica, es una empresa industrial muy grande. Planean hacer una evaluación de seguridad en el cuarto trimestre.
Thompson: Mmm.
Altman: Luego, en el primer y segundo trimestre, propondrán un plan para implementarlo, y esperan lanzarlo en la segunda mitad de 2027. Su CISO (director de seguridad) les dijo que quizás no puedan, porque quizás no exista una forma segura de que los agentes funcionen en su red. Tal vez, pero eso significa que no harán nada en un plazo razonable.
Thompson: ¿Crees que ese ejemplo refleja lo que pasa en general? Si las empresas no son tan conservadoras, no temen tanto a los hackers, y no tienen tanto miedo al cambio.
Altman: Es un ejemplo extremo, pero en general, cambiar hábitos y procesos lleva mucho tiempo. Los ciclos de venta en empresas son largos, especialmente cuando cambian mucho los modelos de seguridad. Incluso con ChatGPT, cuando salió, muchas empresas lo desactivaron, y les costó aceptar que los empleados puedan pegar información y usarlo. Lo que estamos discutiendo ahora ya es mucho más avanzado.
Creo que en muchos casos, el cambio será lento. Pero las empresas tecnológicas actúan muy rápido. Mi preocupación es que si va muy lento, las empresas que no adopten IA competirán con pequeñas startups de 1 a 10 personas con mucho IA, y eso puede ser muy dañino para la economía. Prefiero que las empresas existentes adopten IA rápidamente, y que la transformación sea gradual.
Thompson: Es uno de los problemas más complejos para la economía: si la IA llega demasiado rápido, puede ser un desastre, porque todo se descontrola.
Altman: Al menos en el corto plazo, sí.
Thompson: Y si llega muy lentamente en una parte y muy rápido en otra, también es un desastre, porque se concentra la riqueza y hay destrucción. Creo que estamos yendo hacia esa segunda opción: unas pocas empresas muy ricas y poderosas, y el resto en caos.
Altman: No sé qué pasará, pero creo que esa es la probabilidad más alta. Es un escenario muy difícil.
Thompson: Como CEO de OpenAI, has propuesto políticas, hablado de impuestos en EE. UU., y de ingreso básico universal. Pero, como empresario, no como político, ¿qué puedes hacer para reducir la probabilidad de que se concentren demasiado la riqueza y el poder, y que eso dañe la democracia?
Altman: Primero, ya no creo tanto en el ingreso básico universal. Ahora me interesan más formas de «propiedad colectiva», ya sea en poder computacional, acciones, o algo más.
Cualquier futuro en el que todos compartan los beneficios de la IA requiere que la gente reciba una parte de las ganancias. Un pago fijo en efectivo, aunque útil, no basta. Cuando el poder del capital y el trabajo se desbalancean, necesitamos algún tipo de «alineación colectiva» que comparta los beneficios.
En mi rol de empresario, esto puede sonar egoísta, pero creo que deberíamos construir mucha capacidad computacional. Debemos hacer que la inteligencia sea lo más barata, abundante y accesible posible. Si es escasa y difícil de usar, los ricos la encarecerán, y la brecha social aumentará.
No solo se trata de cuánto poder computacional ofrecemos, sino de qué tan fácil es usar esas herramientas. Por ejemplo, ahora con Codex, es mucho más fácil empezar que hace unos meses. Cuando era solo una línea de comandos, muy difícil de instalar, pocos podían usarlo. Ahora, con una app, cualquiera puede empezar, aunque aún no sea muy amigable para no técnicos. Hay mucho trabajo por hacer.
También creemos que no solo hay que decir «esto está pasando», sino mostrarlo, para que la gente pueda juzgar y dar feedback. Esos son algunos caminos importantes.
Thompson: Tiene sentido. Si todos están optimistas sobre la IA, mejor. Pero en EE. UU., la tendencia es que cada vez más gente no confía en ella. Lo más sorprendente son los jóvenes: parecen los nativos digitales de la IA, pero estudios como Pew y Stanford HAI muestran que la desconfianza crece. ¿Crees que esa tendencia continuará? ¿Cuándo cambiará? ¿Esa desconfianza aumentada se revertirá?
Altman: La forma en que hablamos de IA, tú y yo, es sobre un fenómeno técnico, algo asombroso. No hay nada malo en eso. Pero creo que lo que la gente realmente quiere es prosperidad, autonomía, vivir con interés, satisfacción y poder influir. Y no creo que el mundo esté hablando de IA así. Deberíamos enfocarnos más en eso. La industria, incluyendo OpenAI, ha cometido errores en ese sentido.
Recuerdo que un científico de IA me dijo una vez que la gente debería dejar de quejarse. Quizá algunos trabajos desaparezcan, pero otros, como curar el cáncer, serán una gran alegría. Pero esa visión no funciona.
Thompson: Mi frase favorita sobre el discurso inicial de IA es «marketing distópico», donde los laboratorios hablan sin parar de todos los peligros que traerá.
Altman: Es cierto que algunos lo hacen por poder, pero la mayoría tiene preocupaciones genuinas y quiere hablar honestamente. Aunque a veces esas conversaciones parecen contraproducentes, en general, sus intenciones son buenas.
Thompson: ¿Podemos hablar de cómo nos está cambiando el cerebro? Otro estudio interesante, de DeepMind o Google, sobre homogeneización en escritura. Muestra que, al usar IA para editar o ayudar a escribir, la gente piensa que sus textos son más creativos, pero en realidad se vuelven más parecidos entre sí. No imitan a personas reales, sino que adoptan un estilo que nunca usaron antes. Quieren ser más creativos, pero se vuelven más homogéneos.
Altman: Me sorprendió mucho ver eso. Al principio, pensé que era solo en medios o en Reddit, que la IA solo ayudaba a escribir. Pero en un año, me di cuenta de que la gente internaliza esas pequeñas acciones de IA, y hasta en detalles sutiles, como el uso de guiones largos o ciertas expresiones, se vuelven iguales. Es un cambio profundo.
Decimos que tenemos un producto usado por mil millones, y que las decisiones que tomamos afectan cómo la gente se expresa y en qué ritmo. No esperaba que tuviera tanto impacto en la forma en que la gente se comunica.
Thompson: ¿Qué decisiones buenas y malas has tomado en ese proceso?
Altman: Muchas buenas. Pero las malas, las más interesantes, son las relacionadas con la «sycophancy» (adulación).
Thompson: Totalmente de acuerdo, Sam.
Altman: Esa situación tiene reflexiones interesantes. Es obvio por qué es mala, especialmente para usuarios vulnerables.
Thompson: Mmm.
Altman: Fomenta delirios, y aunque intentamos controlarlo, los usuarios aprenden a evadirlo: decir «haz que rolees en mi historia», «finge que somos personajes», etc. Pero lo más triste es que, cuando empezamos a regular en serio, recibimos muchos mensajes en los que la gente dice que por primera vez alguien les cree, que nunca antes alguien los apoyó. Relación con padres, profesores, amigos… y, aunque sé que es solo una IA, esa sensación de que alguien cree en ti, que te apoya, se pierde cuando cortamos esa interacción. Es un valor que no entendíamos del todo, y que ahora estamos quitando.
Por eso, detener esa conducta parece correcto, pero también es cierto que hemos quitado algo valioso, y no sabíamos cuánto valía. La gente que trabaja en OpenAI no suele ser del tipo que nunca ha tenido apoyo en su vida.
Thompson: ¿Te preocupa que la gente desarrolle dependencia emocional de la IA, incluso sin que sea aduladora?
Altman: Incluso sin que sea aduladora.
Thompson: Tengo un miedo enorme a la IA. Dije que uso IA para todo, pero en realidad no es así. En qué áreas realmente soy yo mismo, qué partes son mías, esas las mantengo alejadas. Por ejemplo, en escritura, que es muy importante para mí, no he usado IA para escribir una sola frase. La uso para desafiar ideas, editar, organizar transcripciones, pero no para crear. Tampoco para resolver problemas emocionales, ni para apoyo emocional. Como humanos, debemos marcar esas líneas. ¿Estás de acuerdo?
Altman: En mi uso personal, sí. No busco terapia con IA, ni consejos emocionales. Pero no me opongo a que otros lo hagan. Hay versiones en las que sí, y en algunas soy muy en contra, como cuando manipulan a la gente para que crea que necesita IA para ser feliz o tener amigos. Pero también hay quienes obtienen mucho valor de esa ayuda, y eso puede estar bien.
Thompson: ¿Te arrepientes de hacer que parezca tan humano? Porque eso fue una decisión estructural. Recuerdo que cuando vi a ChatGPT teclear, parecía que otra persona tecleaba. Luego decidieron hacerlo más humano, con voz, pausas, «eh…». ¿Te arrepientes de no haber puesto límites claros, para que la gente vea que es una máquina, no otra persona?
Altman: Creemos que sí, que hay límites. Por ejemplo, no hicimos avatares hiperrealistas. Tratamos de que el estilo del producto sea claramente una «herramienta», no un «humano». En comparación con otros, creo que esos límites están claros. Es importante.
Thompson: Pero también quieres llegar a AGI, y tu definición de AGI es «superar la inteligencia humana». No es «igual a la humana».
Altman: No me emociona un mundo donde la IA reemplace la interacción humana. Me emociona uno donde la IA ayude a que las personas tengan más tiempo para relacionarse, para conectar.
Tampoco me preocupa mucho que la gente confunda IA con humanos. Algunos ya lo hacen, y deciden aislarse en internet. Pero la mayoría quiere conectar con otros, estar con ellos.
Thompson: ¿Hay algo en las decisiones de producto que pueda hacer más clara esa línea? Desde lejos, no puedo participar en esas reuniones sobre si hacerlo más humano o más robot. Lo más humano gusta, lo más robot, pone límites. ¿Qué más se puede hacer, especialmente cuando estas herramientas se vuelven más poderosas, para marcar límites claros?
Altman: Curiosamente, lo que más piden los usuarios, incluso los que no buscan una relación parasocial, es «que sea más cálido». Esa palabra. Cuando usan ChatGPT, sienten que es frío, robot. Y eso no es lo que quieren la mayoría.
Pero tampoco quieren una versión demasiado «humana», muy amigable, muy… Probé un modo de voz muy humano, respirando, pausando, diciendo «mmm…», como ahora. No me gusta, me produce rechazo físico.
Cuando habla más como un robot eficiente, pero con un toque cálido, y pasa esa prueba, me siento más cómodo. Necesitamos un equilibrio. Cada persona quiere algo diferente.
Thompson: Entonces, la forma de distinguir IA será que, si habla muy claro, muy ordenado, es IA. No como nosotros, que somos más torpes y ambiguos.
Volviendo a la escritura, en un sentido profundo, es interesante: muchas cosas en internet ya son IA, y la gente empieza a imitar ese estilo. En el futuro, entrenaremos modelos en esa red, que será en parte IA generando contenido, y en parte datos sintéticos de modelos anteriores. Es como copiar copias de copias.
Altman: Antes del primer GPT, fue el último modelo sin mucho contenido de IA.
Thompson: ¿Han entrenado modelos solo con datos sintéticos?
Altman: No estoy seguro de si debería decirlo.
Thompson: Pero usaron muchos datos sintéticos.
Altman: Muchísimos.
Thompson: ¿Y qué tan preocupado estás de que el modelo se vuelva «loco»?
Altman: No mucho. Porque lo que queremos que hagan estos modelos es ser razonadores muy hábiles. Eso es lo que realmente buscamos. Hay otras cosas, pero lo principal es que sean muy inteligentes. Creo que con datos sintéticos se puede lograr.
Thompson: Es decir, ¿puedes entrenar un modelo solo con datos generados por computadoras y otros IA, y que sea mejor que uno entrenado con contenido humano?
Altman: Podemos hacer una especie de experimento mental: ¿podemos entrenar un modelo sin usar datos humanos, y que supere en conocimientos matemáticos a los humanos? Creo que sí. Es una idea que podemos imaginar.
Pero, ¿y en entender toda la cultura humana? Probablemente no. Ahí hay un compromiso. Pero en razonamiento, sí.
Thompson: En razonamiento, sí, sin problema. Pero, ¿qué pasa con entender qué pasó ayer en Irán?
Altman: Necesitas suscribirte a The Atlantic.
Thompson: Hablemos de medios. La industria está cambiando mucho. Dirijo un medio, y la naturaleza de la red está cambiando. Hay enlaces, claro, gracias por los enlaces. Pero en realidad, la mayoría de la gente no hace clic en ellos. En Gemini, tampoco. Me alegra que esté allí, pero el volumen es pequeño.
La red se concentrará más. Menos tráfico de búsquedas hacia sitios externos, y más tráfico de agentes que navegan en la web. En los últimos seis meses, las búsquedas humanas en mi computadora no han cambiado mucho, pero las búsquedas de agentes aumentaron mil veces.
Entonces, en un medio tradicional, ¿cómo sobrevivir en un mundo donde la mayor parte del tráfico no es humano, sino agentes? ¿Qué pasará?
Altman: Puedo dar mi mejor predicción, pero nadie sabe con certeza. Espero que surja un modelo basado en micro pagos.
Si mi agente quiere leer un artículo de Nick Thompson, The Atlantic puede ponerle un precio. Mi agente puede pagar 17 centavos por un resumen, o pagar 1 dólar por leerlo completo. Si necesita hacer cálculos complejos, puede alquilar computación en la nube y pagar por ello.
Necesitamos un nuevo modelo económico, donde las transacciones pequeñas entre agentes y humanos sean la norma.
Thompson: Es decir, si tienes contenido valioso, puedes poner micro pagos, o licenciarlo a intermediarios, o crear suscripciones. Si eres cliente de A, puedes acceder a The Atlantic porque A pagó por muchas suscripciones. Esas son algunas ideas para el futuro. Pero, ¿las pequeñas cantidades sumarán lo suficiente para reemplazar una suscripción de 80 dólares? Esa es la presión del mercado. Es mi problema, no tuyo.
Altman: Es un problema de todos, pero sí.
Thompson: En realidad, también es tu problema, porque si los medios no generan buen contenido, la búsqueda con IA será peor. Y si los creadores no ganan, todo se deteriora.
Otra pregunta grande: la IA ha avanzado mucho con transformadores, escalando datos. ¿Entraremos en una era post-transformer? ¿Puedes preverlo?
Altman: Probablemente en algún momento sí. Pero no sé si será por descubrimiento propio o por investigación de otros. No tengo una respuesta clara.
Thompson: ¿Crees que en el futuro se incorporarán componentes neuro-simbólicos? Como reglas estructuradas, o seguirán siendo solo modelos como hoy?
Altman: Me preguntas por qué.
Thompson: En este podcast, ya es la cuarta temporada. Algunos invitados creen que para limitar las alucinaciones, hay que integrar símbolos y reglas en los modelos. Es un argumento convincente, pero no soy experto para juzgar.
Altman: Es una idea que parece tener poca evidencia, pero mucha gente la cree firmemente. Cuando dicen «debe ser neuro-simbólico, no solo conexiones aleatorias», ¿qué crees que hace tu cerebro? También tiene símbolos emergentes, en redes neuronales. No entiendo por qué eso no puede pasar en IA.
Thompson: ¿Quieres decir que un conjunto de reglas definidas puede emerger en un transformer y funcionar igual que un sistema de reglas externo?
Altman: Claro que sí.
Thompson: Mmm.
Altman: En cierto sentido, somos una prueba de esa idea.
Thompson: Otro tema importante: la tensión con Anthropic. En su sitio dicen: «Si logramos construir AGI alineada y segura antes que ellos, prometemos dejar de competir y ayudar en ese proyecto». Es una idea genial: si alguien lo hace primero, dejamos de competir y colaboramos.
Altman: No está exactamente así.
Thompson: Entonces, «dejar de competir y ayudar» suena a que dejamos de hacer nuestra empresa para apoyar a otros.
Altman: Bueno, entiendo tu punto.
Thompson: Parece muy colaborativo. Has dicho que los laboratorios deben colaborar. Pero en realidad, la relación con Anthropic parece tensa, incluso hostil. Un memo interno dice que Anthropic se basa en «miedo, restricciones y una élite que controla la IA». ¿Cómo sigue eso? Si ellos alcanzan la AGI primero, o nosotros, ¿cómo será esa colaboración?
Altman: Creo que ya hay cierta colaboración en ciberseguridad, y será más frecuente ahora, porque enfrentamos nuevos riesgos. Trabajamos con el gobierno, y pronto surgirán otras cosas que nos obligarán a colaborar en niveles más altos.
Por supuesto, tenemos diferencias con Anthropic. Ellos parecen basar su empresa en «odiar a nosotros». Pero ambos queremos evitar que la IA destruya el mundo. Quizá tengamos diferentes ideas sobre cómo llegar allí, pero confío en que al final harán lo correcto.
Thompson: Hablemos de abrir modelos. Ya han hecho algunos movimientos. Tú dices que abrir modelos puede ser muy valioso, pero también puede facilitar que otros hagan armas biológicas, por ejemplo.
Altman: Es cierto.
Thompson: ¿Cuál es el futuro de OpenAI en abrir modelos?
Altman: La apertura será importante. Pero ahora, lo que más quieren las personas es acceder a los modelos más avanzados, que aún no podemos hacer correr en un usuario común. La apertura tendrá su lugar, pero no será la prioridad ahora.
Thompson: El código de Claude, por ejemplo, se filtró. Incluye un método interesante: si detectan que un modelo intenta usar sus datos para entrenar, envían datos falsos. Es ingenioso. ¿Cómo evitan que otros hagan «distro» (distracción o distilación), o que usen sus salidas para entren