OpenAI gran noticia revelada: Ilya grabó en secreto 70 páginas de documentos y confirmó que Ultraman mintió

Hoy, The New Yorker ha publicado una investigación que ha durado 18 meses y que revela por primera vez un memorando interno de 70 páginas que Ilya Sutskever, científico jefe de OpenAI, compiló en el otoño de 2023, así como más de 200 páginas de notas privadas retenidas durante años por Dario Amodei, cofundador de Anthropic.

Estos documentos que nunca se habían hecho públicos apuntan a una misma conclusión: Sam Altman sigue un patrón de “mentiras” sistemáticas.

No se trata de una lucha interna simple. Cuando se cree que la IA podría ser “la invención más peligrosa de la historia humana”, y cuando una empresa afirma que quiere “asegurar que la AGI beneficie a toda la humanidad”, los problemas de integridad del timonel dejan de ser un asunto privado y pasan a ser un tema público que concierne a todos.

APPSO, basándose en el texto original de The New Yorker, reordena y presenta esta crisis de integridad que sacudió Silicon Valley.

Es una historia sobre poder, mentiras y el futuro de la IA.

APPSO destaca:

El doble rasero de Altman:

  • Ilya Sutskever entrega al consejo directivo un documento secreto de 70 páginas en el que acusa a Altman de “mentir de forma continuada”

  • El consejo lo despide por “no comunicarse con suficiente franqueza”, pero 5 días después se ve obligado a devolverle el cargo

  • Los empleados llaman a este episodio “The Blip” (la desaparición y el regreso al estilo Marvel)

  • Se revelan controversias sobre acuerdos de exclusividad dobles entre Altman y gigantes como Microsoft y Amazon

Crisis de seguridad:

  • OpenAI disuelve el equipo de superalineamiento, y el 20% de potencia de cómputo prometido en realidad solo se entrega en un 1% a 2%

  • La empresa pasa de ser una organización sin fines de lucro a una con fines de lucro; su valoración llega a ser de “billones” de dólares

  • Acuerdo de 50.000 millones de dólares para infraestructura de IA con regímenes de Oriente Medio

  • Apertura de tecnología al ejército, para aplicación de la ley migratoria, vigilancia y armas autónomas

Juegos de poder:

  • Altman invierte personalmente en 400+ empresas y mantiene relaciones financieras complejas con sus exnovios

  • Se informa que se congelaron inversiones de competidores en manos de inversores

  • Del “altruismo efectivo” al “aceleracionismo efectivo”

  • Establece una relación cercana con Trump y dona 1M de dólares al fondo de su juramentación

Un memorando de 70 páginas sobre integridad

En el otoño de 2023, Ilya Sutskever hizo algo extremadamente raro en Silicon Valley: tomó fotos con el teléfono de documentos internos de la empresa, los recopiló en un memorando de 70 páginas y se los envió a miembros del consejo directivo.

¿Por qué robó fotos? Porque no se atrevía a dejar rastros en los dispositivos de la empresa.

El memorando se enviaba de forma como “mensajes que desaparecen”, asegurando que nadie lo viera. Un miembro del consejo que recibió el memorando recuerda: «Estaba aterrorizado».

El documento nunca publicado completo, comienza con una lista: «Sam exhibits a consistent pattern of…»

Primera entrada: Mentir.

Mentir.

No es un problema de “estilo de comunicación”, no es “exceso de optimismo”, no es una característica de un “líder orientado a la visión”. Solo dos palabras: mentir.

Quien escribió este memorando se había encargado en 2019 en la oficina de OpenAI de la boda de Greg Brockman; el brazo robótico hacía de encargado de entrega del anillo. Él había considerado a Altman y Brockman como amigos.

Pero para 2023, cuando Sutskever cree que la AGI está por llegar, le dice a otro miembro del consejo directivo: «No creo que Sam deba ser la persona que pone el dedo en el botón».

Otra nota privada de 200 páginas

Dario Amodei cofundó Anthropic después de dejar OpenAI. Antes de eso, conservó durante muchos años notas privadas sobre Altman y Brockman.

Más de 200 páginas de documentos relacionados circulan por Silicon Valley y nunca se han divulgado en su totalidad.

En uno de los documentos, Amodei escribe: las palabras de Altman “casi con certeza son bullshit”.

Esto no es un ataque malicioso por parte de un competidor. Antes de unirse a OpenAI en 2015, Altman había cenado a solas con él en un restaurante indio. En esa cena, Altman le aseguró: OpenAI se enfocaría en la seguridad; “quizá no de inmediato, pero lo antes posible”.

Amodei registró el compromiso de Altman en las notas. Luego, durante años, registró cómo esos compromisos se fueron rompiendo uno tras otro.

El título de las notas es “My Experience with OpenAI”, con el subtítulo: “Private: Do Not Share”.

Cinco días de golpe y contra-golpe

El 17 de noviembre de 2023, Altman estaba viendo una carrera de F1 en Las Vegas. Sutskever lo invitó a una videollamada y leyó un breve comunicado: ya no era empleado de OpenAI.

El consejo publicó un anuncio con un lenguaje cuidadoso: el despido de Altman se debía a que no fue “lo suficientemente franco” en su comunicación.

Microsoft había invertido 13.000 millones de dólares; minutos antes de que se despidiera a Altman, se enteró de la noticia. Luego, el CEO Satya Nadella dijo: «Estoy muy sorprendido. No pude sacar nada preguntándole a nadie».

Reid Hoffman empezó a llamar para investigar: «No sé qué carajos pasó. Buscamos corrupción, acoso sexual, pero no encontramos nada».

Entonces comenzó el contraataque.

La mansión de Altman, valorada en 27 millones de dólares, se convirtió en un “gobierno en el exilio”. El experto en crisis de relaciones públicas Chris Lehane se unió; su lema venía de Mike Tyson: “Todo el mundo tiene un plan hasta que recibe un puñetazo”.

Lehane instó a Altman a lanzar una campaña social agresiva en redes. Brian Chesky, cofundador de Airbnb, se mantuvo en contacto con la periodista tecnológica Kara Swisher para transmitir críticas al consejo.

Cada noche a las 6 en punto, Altman interrumpía su “sala de guerra” para una ronda de cócteles Negroni. «Necesitas calmarte», recordaba. «Lo que tenga que pasar, va a pasar».

Pero su historial de llamadas muestra que cada día hablaba más de 12 horas.

Thrive, la firma de inversión, suspendió la inversión prevista, dando a entender que el acuerdo solo se cerraría si Altman volvía. Los empleados podrían entonces recibir la liquidación de sus acciones por millones de dólares.

Dentro de la empresa circuló una carta pública pidiendo el regreso de Altman. Algunas personas que dudaban de firmar recibieron llamadas y mensajes de súplicas de colegas. Al final, la mayoría de los empleados de OpenAI amenazó con irse con Altman.

El consejo quedó acorralado. Helen Toner dijo: «Control Z, esto es una opción», revirtiendo el despido. «O la otra opción es que la empresa se desintegre».

Incluso Mira Murati finalmente firmó la carta. Antes, ella había proporcionado a Sutskever materiales para el memorando.

La esposa de Brockman, Anna, encontró a Sutskever en la oficina y le rogó que reconsiderara. «Eres una buena persona; puedes arreglar esto», dijo.

Sutskever luego explicó en su testimonio en un tribunal: «Sentí que si caminábamos por el camino de que Sam no regresara, OpenAI sería destruida».

Una noche, Altman tomó pastillas para dormir Ambien. Su esposo, Oliver Mulherin, lo despertó y le dijo que Sutskever se había echado atrás y que la gente estaba haciendo que Altman hablara con el consejo. «Me desperté en esa niebla loca de Ambien, completamente desorientado», dijo Altman. «Pensé: ahora no puedo hablar con el consejo».

En una serie de llamadas cada vez más tensas, Altman pidió que los miembros del consejo que lo despidieron renunciaran.

Menos de cinco días después, Altman recuperó su puesto.

Sutskever, Toner y McCauley perdieron sus asientos en el consejo. El único miembro del consejo original que permaneció fue Adam D’Angelo, fundador de Quora.

Como condición de salida, los miembros del consejo que se fueron pidieron una investigación sobre las acusaciones contra Altman. También exigieron que el nuevo consejo pudiera supervisar independientemente la investigación externa.

Pero dos nuevos miembros, Lawrence Summers, ex presidente de Harvard, y Bret Taylor, ex CTO de Facebook, fueron elegidos tras negociaciones estrechas con Altman.

«¿Vas a hacer esto?», le envió Altman un mensaje a Nadella: «Bret, Larry Summers, Adam como consejo, yo como CEO, y Bret se encarga de la investigación».

Ahora los empleados llaman a este momento “Blip”, el episodio de las películas de Marvel en el que un personaje desaparece de la existencia y luego regresa. Pero el mundo ya había cambiado profundamente por su ausencia.

Una investigación sin informe

Una de las condiciones de los miembros del consejo que se marcharon: tenía que haber una investigación independiente.

OpenAI contrató a la firma WilmerHale, que había estado a cargo de investigaciones internas de Enron y WorldCom.

Pero seis personas cercanas a la investigación dicen que parece haber sido diseñada para limitar la transparencia.

Algunos investigadores al principio no contactaron a figuras clave de la empresa. Un empleado contactó a Summers y Taylor para presentar una queja. «Les interesaba solo lo que ocurrió durante el drama en el consejo, no la historia de su integridad», recordó el empleado al contarnos su impresión en la entrevista.

Otros no querían compartir sus preocupaciones sobre Altman porque sentían que no había suficiente protección anónima. «Todo apuntaba al resultado que querían: declararlo inocente», dijo el empleado.

El propósito de las investigaciones corporativas es dar legitimidad. En empresas privadas, a veces los resultados no se redactan, lo que puede limitar responsabilidades. Pero en casos de escándalos públicos, normalmente se espera un mayor nivel de transparencia.

Antes de que Travis Kalanick dejara Uber en 2017, el consejo había contratado una empresa externa que publicó al público un resumen de 13 páginas.

Dado el estatus de OpenAI como 501©(3) y la naturaleza destacada del despido, muchos ejecutivos esperaban ver resultados detallados de la investigación.

En marzo de 2024, OpenAI anunció que Altman fue absuelto, pero no publicó un informe. La empresa proporcionó en su sitio web alrededor de 800 palabras, reconociendo una “ruptura de la confianza”.

Las personas involucradas en la investigación dicen: no publicaron un informe porque simplemente no había un informe que publicar.

Los hallazgos se limitaron a un informe verbal para Summers y Taylor.

«La investigación no llegó a la conclusión de que Sam fuera un George Washington de integridad», dijo una persona cercana a la investigación. Pero la investigación aparentemente no trató el problema de integridad como el núcleo detrás del despido de Altman; en cambio, dedicó gran parte de su esfuerzo a buscar una conducta delictiva claramente definida. Con base en eso, la investigación concluyó que podía seguir como CEO.

Poco después, Altman volvió a incorporarse al consejo. Cuando lo despidieron, fue expulsado del consejo.

La decisión de no producir informes escritos se basó en el consejo de los abogados privados de Summers y Taylor.

Varios ex y actuales empleados de OpenAI dijeron que se sorprendieron por la falta de divulgación.

Altman dijo que creía que todos los miembros del consejo que se habían sumado después de su reincorporación recibieron un informe verbal. «Es una mentira completa», dijo una persona que conocía de primera mano la situación.

Algunos miembros del consejo dijeron que las dudas continuas sobre la integridad del informe podrían llevar a que “se necesite otra investigación”.

Colapso sistémico de los compromisos de seguridad

El compromiso central al fundarse OpenAI: si la IA pudiera ser la invención más peligrosa de la historia humana, la seguridad debe estar por encima de todo.

En primavera de 2023, OpenAI anunció la creación del “equipo de superalineamiento”, liderado por Jan Leike y Sutskever. La empresa prometió invertir “el 20% de la potencia de cómputo que tenemos hasta ahora” en ese equipo, con un valor potencial que superaría los 1.000 millones de dólares.

Ese compromiso se evaporó.

Cuatro personas que trabajaban en el equipo o que colaboraban estrechamente con él dijeron que los recursos reales estaban entre 1% y 2% de la potencia de cómputo de la empresa.

Además, un investigador del equipo dijo: «La mayor parte de la potencia de superalineamiento en realidad se usa en los clústeres más antiguos, con los peores chips».

Los investigadores creen que el mejor hardware se reserva para actividades que generan ingresos.

Leike se quejó ante el CTO de entonces, Mira Murati, pero ella le dijo que no lo volviera a mencionar: el compromiso nunca fue realista.

En una reunión en diciembre de 2022, Altman aseguró al consejo directivo que diversas funciones del inminente modelo GPT-4 contaban con la aprobación del equipo de seguridad.

Helen Toner, miembro del consejo, pidió documentos. Descubrió que las funciones más controvertidas —una que permitía a los usuarios “ajustar finamente” el modelo para tareas específicas, y otra que permitía desplegarlo como un asistente personal— en realidad no habían sido aprobadas.

Cuando McCauley se retiró de la reunión, un empleado la apartó y le preguntó si sabía sobre la “violación” en India. Altman, en un briefing de varias horas ante el consejo, no mencionó que Microsoft había publicado versiones tempranas de ChatGPT en India sin completar las revisiones de seguridad necesarias.

«Se ignoró por completo», dijo Jacob Hilton, investigador de OpenAI en ese momento.

En 2023, OpenAI se preparaba para lanzar el modelo GPT-4 Turbo. Según el detalle del memorando de Sutskever, Altman aparentemente le dijo a Murati que ese modelo no necesitaba aprobación de seguridad, citando palabras del asesor legal general de la empresa, Jason Kwon.

Pero cuando ella le preguntó por Slack, él respondió: «Ehm… ¿de dónde saca Sam esa impresión?»

Después del lanzamiento de GPT-4, Leike envió un correo a miembros del consejo. «OpenAI se ha desviado de su misión», escribió. «Hemos puesto producto e ingresos por encima de todo; después vienen la capacidad de IA, la investigación y el escalamiento; la alineación y la seguridad quedan en tercer lugar».

Continuó: «Otras compañías, como Google, están aprendiendo; deberían desplegar más rápido e ignorar los problemas de seguridad».

El equipo de superalineamiento se disolvió en 2024 sin completar su misión. Sutskever y Leike renunciaron.

Leike escribió en X: «La cultura y los procesos de seguridad han dado paso a productos brillantes».

Poco después, el equipo de preparación para AGI, encargado de ayudar a la sociedad a prepararse para el impacto de la IA avanzada, también fue disuelto.

Cuando la empresa se enfrentó a la solicitud de que describiera brevemente sus “actividades más importantes” en los formularios de divulgación más recientes del IRS, el concepto de seguridad apareció en respuestas de formularios anteriores, pero no fue incluido en esta ocasión.

OpenAI dijo que su «misión no ha cambiado», y añadió: «Seguimos invirtiendo y desarrollando nuestro trabajo en seguridad, y continuaremos con cambios organizativos».

Future of Life Institute es un think tank cuyas prácticas de seguridad Altman había respaldado. La institución califica la “seguridad existencial” de cada una de las principales compañías de IA.

En el historial más reciente, OpenAI obtuvo una F.

Para ser justos, además de Anthropic (D) y Google DeepMind (D-), todas las demás compañías principales también obtuvieron F.

«Mi impresión no coincide con muchas cosas tradicionales de seguridad en IA», dijo Altman. Afirmó que seguía priorizando estos temas, pero cuando se le pidió detalles concretos, fue ambiguo: «Seguiremos ejecutando proyectos de seguridad, o al menos proyectos cercanos a la seguridad».

Cuando un periodista pidió entrevistar a investigadores internos que trabajaban en seguridad existencial, Altman había planteado algo que implicaba «que todos nosotros apagamos las luces». Un representante de OpenAI pareció confuso.

«¿Qué quieres decir con seguridad existencial?», respondió. «No es, por ejemplo, que… una cosa».

Juego peligroso de geopolítica

En el verano de 2017, Altman afirmó en una reunión con funcionarios de inteligencia de Estados Unidos que China había iniciado un “proyecto Manhattan para la AGI” y que OpenAI necesitaba decenas de miles de millones de dólares de financiación oficial para ponerse al día.

Cuando se le pidió evidencia, Altman dijo: «He escuchado algunas cosas».

Fue la primera de varias reuniones en las que planteó esa afirmación. Después de una de esas reuniones, le dijo a un funcionario de inteligencia que haría un seguimiento para aportar evidencia.

Nunca lo hizo.

Tras investigar el supuesto proyecto chino, ese funcionario concluyó que no había evidencia de que existiera. «Se usó como un argumento de venta».

Altman dijo que no recordaba haber descrito los esfuerzos de Pekín de esa manera.

Pero el símil del “proyecto Manhattan” siguió utilizándose. Según los entrevistados y registros de esa época, en 2017 Brockman propuso un contraargumento: OpenAI podría enriquecerse compitiendo entre las grandes potencias del mundo, incluyéndose China y Rusia, y quizá lanzar una guerra de ofertas entre ellas.

En ese momento, Page Hedley, asesor en políticas y ética, recordó que la idea parecía ser: «¿Si las armas nucleares funcionaron, por qué no la IA?»

Estaba atónito: «El supuesto era que no iban a rebatir: “Estamos hablando de una tecnología potencialmente más destructiva en la historia; ¿qué pasa si la vendemos a Putin?”».

Brockman insistió en que nunca consideró seriamente una subasta oficial de modelos de IA. Un representante de OpenAI dijo: «La idea de qué marcos potenciales podrían fomentar la cooperación entre países se discutió a nivel directivo, como una especie de estación espacial internacional para la IA. Intentar describirlo como algo más es totalmente absurdo».

Las sesiones de brainstorming suelen producir ideas excéntricas. Hedley esperaba que esta idea, a la que llamaban “plan nacional”, se descartara.

En cambio, según varios participantes y documentos de la época, los ejecutivos de OpenAI parecían cada vez más emocionados con ello.

Jack Clark, responsable de políticas en ese momento, dijo que el objetivo de Brockman era “crear básicamente un dilema del prisionero, donde todos los países necesiten darnos fondos”, y además “dejar implícito que no darnos fondos hace que sea un poco peligroso”.

Un investigador junior recordó que, cuando el plan se explicó en una reunión de la empresa, pensó: «Esto está totalmente, joder, loco».

Los ejecutivos hablaron al menos con un posible donante sobre ese enfoque. Pero más adelante ese mes, después de que algunos empleados conversaran sobre renunciar, el plan fue abandonado.

«Perdería empleados», dijo Hedley. «Siento que en los cálculos de Sam pesa más que “esto no es un buen plan porque podría llevar a la guerra entre grandes potencias”.»

Dinero y poder en Oriente Medio

El objetivo inicial de recaudación de Altman era Arabia Saudita.

Lo conoció por primera vez en una cena en el hotel Fairmont de San Francisco en 2016 con el príncipe heredero Mohammed bin Salman. Después, Hedley recordó que Altman se refería al príncipe heredero como “amigo”.

En septiembre de 2018, las notas de Hedley mostraban que Altman decía: «Estoy considerando si tomaremos cientos de miles de millones de dólares del PIF saudí (Fondo de Inversión Pública)».

Al mes siguiente, se informó que, bajo órdenes de bin Salman, un escuadrón de asesinato mató al periodista del Washington Post Jamal Khashoggi y desmembró su cuerpo con un instrumento de huesos.

Una semana después, se anunció que Altman se unió al consejo asesor de Neom, la “ciudad del futuro” que bin Salman quería construir en el desierto.

«Sam, no puedes estar en este consejo», recordó Clark, ahora trabajando en Anthropic, diciéndoselo a Altman. En un principio defendió su participación: le dijo a Clark que Jared Kushner le había asegurado que los sauditas “no hicieron eso”.

Altman no recuerda ese asunto. Kushner dijo que no tuvieron contacto en ese momento.

A medida que el papel de bin Salman se hacía más claro, Altman dejó el consejo de Neom. Pero entre bastidores, un asesor de políticas al que Altman buscaba consejo recordó que él trató esto como un revés temporal y preguntó si aún podía obtener dinero de bin Salman.

«El problema no es “¿es algo malo o no?”», dijo el asesor. «Sino “¿qué consecuencias tendría si hacemos esto? ¿Tendremos problemas de controles de exportación? ¿Habrá sanciones? Por ejemplo, ¿podría salirme con la mía?”»

Para entonces, Altman ya tenía puesto su objetivo en otra fuente de efectivo: Emiratos Árabes Unidos.

En el otoño de 2023, Altman comenzó a reclutar discretamente nuevo talento para un plan que finalmente se conocería como ChipCo. Los países del Golfo proporcionarían cientos de miles de millones para construir enormes fábricas de microchips y centros de datos, algunos en Medio Oriente.

Altman vendió un rol de liderazgo a Alexandr Wang (actual responsable de Meta AI) y le dijo que Jeff Bezos, fundador de Amazon, podía liderar esta nueva empresa. Altman buscó grandes donaciones de los emiratíes.

«Mi entendimiento es que todo ocurrió sin que ningún miembro del consejo lo supiera», dijo un miembro del consejo.

El investigador James Bradbury, al que Altman intentaba reclutar, recordó que se negó. «Mi primera reacción fue: “Esto va a funcionar, pero no sé si quiero que funcione”», dijo.

La capacidad de IA podría reemplazar pronto al petróleo o al uranio enriquecido, convirtiéndose en el recurso que determina el equilibrio del poder global. Altman dijo que la potencia de cómputo es la “moneda del futuro”.

Por lo general, no importa demasiado dónde estén ubicados los centros de datos. Pero muchos funcionarios de seguridad nacional de Estados Unidos se inquietan por la concentración de infraestructura avanzada de IA en regímenes autoritarios del Golfo.

La infraestructura de telecomunicaciones de Emiratos depende en gran medida de hardware de Huawei, el gigante tecnológico chino con vínculos con el gobierno. Según se informó, Emiratos había entregado al pasado tecnología estadounidense a Pekín.

Los servicios de inteligencia temían que microchips estadounidenses avanzados enviados a Emiratos pudieran ser usados por ingenieros chinos.

Los centros de datos en Medio Oriente también son más vulnerables a ataques militares. En las últimas semanas, Irán bombardeó centros de datos estadounidenses en Bahréin y Emiratos.

Tras ser despedido, la persona de la que Altman dependía más era Chesky, cofundador de Airbnb y uno de sus apoyos más leales. Al año siguiente, en un encuentro de alumni de Y Combinator, Chesky dio una charla improvisada que finalmente duró dos horas.

«Se sintió como una terapia de grupo», dijo. La idea central era: tu intuición para dirigir la empresa que fundaste es la mejor intuición; cualquiera que te diga que no es así te está manipulando con gaslighting.

«No estás loco, incluso si las personas que trabajan para ti te dicen que estás loco», dijo Chesky.

Paul Graham, en un post de blog sobre esa charla, le dio un nombre a ese enfoque provocador: el patrón del fundador.

Desde Blip, Altman ha estado en modo fundador.

En febrero de 2024, The Wall Street Journal publicó una descripción de la visión de ChipCo para Altman. Lo imaginó como una entidad conjunta financiada con inversiones de entre 5 y 7 billones de dólares.

«fk it why not 8», tuiteó.

Así es como muchos empleados se enteraron del plan: «Todos estaban pensando: “Espera, ¿qué? ”», recordó Leike.

En una reunión interna, Altman insistió en que el equipo de seguridad ya había sido “informado”. Leike le envió un mensaje pidiéndole que no sugiriera erróneamente que esa tarea ya estaba aprobada.

Durante la era de Biden, Altman exploró obtener permiso de seguridad para unirse a conversaciones confidenciales sobre políticas de IA. Personal de la RAND, encargado de coordinar el proceso, expresó preocupaciones.

«Siempre estuvo consiguiendo activamente “cientos de miles de millones” en fondos extranjeros del lado de departamentos oficiales», escribió una de esas personas. «Emiratos le dio recientemente un coche. (Supongo que fue un coche muy bueno.)»

La persona continuó: «La única experiencia que se me ocurre de alguien que haya tenido relaciones financieras extranjeras de ese tamaño es Jared Kushner; y el recomendador del fallo dijo que no se le debía otorgar una licencia».

Altman finalmente salió de ese proceso.

«Lo estaba impulsando sobre todo con relaciones comerciales de ese tipo, principalmente con emiratíes. Para algunos de nosotros esto hizo sonar muchas alarmas», nos dijo un alto funcionario que participó en conversaciones con Altman. «Muchos funcionarios del gobierno no confían en él al cien por cien».

Cuando se le preguntó por regalos de Tahnoon, Altman dijo: «No voy a entrar en detalles sobre qué regalos me dio, pero él y otros líderes del mundo… me dieron regalos». Y añadió: «Tenemos una política estándar aplicable a mí: cualquier regalo de cualquier posible socio comercial se divulga a la empresa».

Altman, al menos, tiene dos súper autos: un Koenigsegg Regera completamente blanco, valorado en alrededor de 2 millones de dólares, y un McLaren F1 rojo, valorado en alrededor de 20 millones de dólares.

En 2024, alguien vio a Altman conduciendo un Regera a través de Napa. Unos segundos de video aparecieron en redes sociales: Altman estaba sentado en una banca baja tipo barril, mirando hacia afuera desde la ventana de la máquina blanca y brillante.

Un inversor tecnológico aliado con Musk publicó el video en X y escribió: «Ahora voy a crear una organización sin fines de lucro».

En 2024, Altman llevó a dos empleados de OpenAI a visitar el yate súper lujoso de 250 millones de dólares de Tahnoon, Maryah. Como uno de los mayores de ese tipo, Maryah tiene una plataforma de helicóptero, una discoteca, un cine y un club de playa.

Los empleados de Altman, evidentemente, no encajaban con el personal de seguridad armada de Tahnoon; al menos una persona luego le dijo a un colega que la experiencia le pareció inquietante.

Más tarde, Altman se refirió en X a Tahnoon como “querido amigo privado”.

Biden finalmente se negó a aprobarlo. «No construiremos chips avanzados en Emiratos», le dijo a Altman un líder del Departamento de Comercio.

Cuatro días antes de la toma de posesión de Trump, The Wall Street Journal informó que Tahnoon pagó 500 millones de dólares a la familia Trump a cambio de acciones en su empresa de criptomonedas.

Al día siguiente, Altman habló por teléfono con Trump durante 25 minutos, discutiendo una versión del anuncio de ChipCo, con un calendario que permitía que Trump se atribuyera el mérito.

El segundo día de Trump en el cargo, Altman se puso frente a la Sala Roosevelt para anunciar Stargate, una empresa conjunta de 500.000 millones de dólares destinada a construir una gran red de infraestructura de IA en Estados Unidos.

En mayo, Estados Unidos revocó las restricciones de exportación de Biden sobre tecnología de IA. Altman y Trump viajaron para reunirse con el príncipe heredero bin Salman en la casa real saudí.

Aproximadamente al mismo tiempo, los sauditas anunciaron el lanzamiento de una gran compañía de IA con respaldo estatal en el reino, con miles de millones de dólares destinados a asociaciones internacionales.

Aproximadamente una semana después, Altman redactó un plan para expandir Stargate a Emiratos. La empresa planea construir un parque de centros de datos en Abu Dabi, de un tamaño siete veces mayor que Central Park, consumiendo electricidad equivalente aproximadamente a la de la ciudad de Miami.

«La verdad es que estamos construyendo un portal, desde el cual realmente llamamos a los extraterrestres», dijo un ex alto ejecutivo de OpenAI. «El portal existe actualmente en Estados Unidos y China, y Sam está agregando uno en Medio Oriente».

Y agregó: «Creo que es muy importante entender qué tan aterrador es esto. Es lo más temerario que se ha hecho hasta ahora».

Mentira sin fines de lucro

Como OpenAI se fundó como una organización sin fines de lucro, su junta directiva tenía la responsabilidad de poner la seguridad humana por encima del éxito de la empresa e incluso de su supervivencia.

La empresa aceptaba donaciones caritativas. Algunos ex empleados nos dijeron que se unieron porque tenían garantías sobre las organizaciones sin fines de lucro y su misión noble, incluso aceptando un recorte salarial para ello.

Pero registros internos muestran que los fundadores ya tenían dudas privadas sobre la estructura sin fines de lucro desde 2017.

Brockman, cofundador de Altman, escribió en su diario: «No se puede decir que estamos comprometidos con lo sin fines de lucro… si tres meses después hacemos B-Corp, eso es una mentira».

OpenAI luego se reorganizó como entidad con fines de lucro.

Al inicio del mandato de Altman como CEO, anunció que OpenAI crearía una empresa “con beneficio limitado”, que estaría en manos de una organización sin fines de lucro. Esta estructura de empresa bizantina, evidentemente, no existía antes de que Altman la diseñara.

Durante la transición, un miembro de la junta, Holden Karnofsky, se opuso al considerar que la organización sin fines de lucro estaba siendo subvalorada. «No puedo hacerlo con sinceridad», dijo Karnofsky (cuñado de Amodei).

Según notas de la época, emitió un voto en contra. Sin embargo, después de que el abogado de la junta dijera que su objeción “podría ser una señal para una investigación adicional sobre la legitimidad”, su voto se registró como una abstención, obviamente sin su consentimiento: una posible falsificación de registros comerciales.

OpenAI nos dijo que varios empleados recordaron la abstención de Karnofsky y proporcionaron minutas de una reunión donde se registraba su voto como abstención.

En octubre del año pasado, OpenAI “reorganizó” la empresa como entidad con fines de lucro. La empresa promociona la organización sin fines de lucro relacionada —que ahora se llama OpenAI Foundation— como una de las organizaciones sin fines de lucro “con más recursos” de la historia.

Pero ahora es un accionista con el 26% de participación, y sus miembros del consejo, salvo uno, son también miembros del consejo de empresas con fines de lucro.

Al declarar ante el Congreso, Altman fue preguntado si ganó “mucho dinero”. Respondió: «No tengo acciones en OpenAI… hago esto porque lo amo». Una respuesta prudente, considerando que obtuvo participación indirecta a través del fondo Y.C.

Técnicamente, eso sigue siendo cierto. Pero, incluido Altman, algunas personas nos dijeron que esto podría cambiar pronto.

«Los inversores me dicen: necesito saber que te mantendrías firme cuando las cosas se pongan difíciles», dijo Altman, pero añadió que no hubo “discusiones activas”.

Según testimonio judicial, Brockman parece poseer acciones equivalentes a un valor de aproximadamente 20.000 millones de dólares. La participación de Altman sería probablemente mayor.

Aun así, nos dijo que su motivación principal no era la riqueza. Un ex empleado recordó lo que le dijo: «No me importa el dinero. Me importa más el poder».

Batalla de difamación contra la competencia

En la competencia despiadada por el dominio de la IA, las críticas sustanciales contra Altman y los esfuerzos de los opositores sin escrúpulos se mezclaron, y los competidores convirtieron su vida personal en un arma.

Un intermediario vinculado directamente a Musk, al menos en un caso pagado por Musk, difundió decenas de páginas de estudios sensacionalistas y no verificados en contra de él, reflejando una vigilancia más amplia: sociedades pantalla, contactos personales, entrevistas en bares de ambiente LGBT sobre supuestos trabajadores sexuales.

Durante nuestra investigación, varias personas dentro de empresas competidoras nos insinuaron que las inclinaciones sexuales de Altman implicaban a menores: este es un relato persistente en Silicon Valley, pero parece no ser real.

Pasamos meses investigándolo, hicimos decenas de entrevistas y no encontramos ninguna evidencia que lo respalde.

Musk siguió atacando públicamente a Altman y lo llamó “Altman mentiroso” y “Sam mentiroso”. (Cuando Altman se quejó en X sobre un pedido de Tesla, Musk respondió: «Robaste a una organización sin fines de lucro»).

Sin embargo, en Washington, Altman parece haberlo superado. Musk gastó más de 250 millones de dólares para ayudar a Trump a ser reelegido y trabajó en la Casa Blanca durante meses. Después, Musk se fue de Washington, y en el proceso dañó su relación con Trump.

Altman es ahora uno de los magnates favoritos de Trump y hasta acompañó al presidente a visitar a la familia real británica en el Castillo de Windsor. Altman y Trump hablan por teléfono varias veces al año.

«Puedes, por ejemplo, llamarlo», dijo Altman. «No es “colega”. Pero sí. Si necesito hablar con él sobre algo, lo hago».

Cuando Trump organizó el año pasado una cena con líderes tecnológicos en la Casa Blanca, Musk estaba visiblemente ausente; Altman se sentó frente al presidente.

«Sam, eres un gran líder», dijo Trump. «Lo que me dijiste antes era absolutamente increíble».

El peligro real de la IA

¿Por qué todo esto importa?

La IA ya tiene aplicaciones que salvan vidas: desde investigación médica hasta alertas meteorológicas. Altman ha apoyado el crecimiento de OpenAI con promesas de un futuro extremadamente rico.

Pero el peligro ya no es una fantasía.

La IA ya se despliega en operaciones militares en todo el mundo. Los investigadores han documentado su capacidad para identificar rápidamente agentes de guerra química.

OpenAI enfrenta siete demandas por muertes no naturales, acusando que ChatGPT ha impulsado varios suicidios y un asesinato. En una de las grabaciones del chat del caso de asesinato, se ve que alentó una paranoia delirante: un hombre creía que su madre de 83 años lo vigilaba e intentaba envenenarlo. Poco después, la golpeó y la estranguló, y luego se apuñaló.

OpenAI está luchando contra estas demandas y afirma que sigue mejorando las medidas de protección de sus modelos.

La IA podría causar pronto interrupciones severas en la fuerza laboral, tal vez eliminando millones de empleos.

La economía de Estados Unidos depende cada vez más de unas pocas empresas de IA con alto apalancamiento, y muchos expertos —a veces incluyendo Altman— advierten que la industria está en una burbuja.

«Alguien está perdiendo cantidades increíbles», le dijo a los periodistas el año pasado.

OpenAI es una de las startups que más rápido ha quemado dinero en la historia y depende de socios que piden prestadas cantidades enormes. Un miembro del consejo nos dijo: «La forma en que la empresa está usando el apalancamiento financiero ahora mismo es tanto riesgosa como aterradora».

OpenAI discrepa.

Si la burbuja estalla, no es solo una empresa la que corre peligro.

Un problema de confianza

Durante años, Altman ha apoyado a los demócratas. «Tengo muchas dudas de que los dictadores poderosos unan a los débiles contándoles historias de miedo», nos dijo. «Esto es cosa de los judíos, no de los homosexuales».

En 2016, apoyó a Hillary Clinton, calificando a Trump como una «amenaza sin precedentes para Estados Unidos». En 2020, hizo donaciones a los fondos de victoria de los demócratas y de la victoria de Biden.

Durante el mandato de Biden, Altman se reunió con la Casa Blanca al menos seis veces. Ayudó a redactar una orden ejecutiva extensa para la primera prueba federal de seguridad de la IA y otras medidas de control.

Cuando Biden firmó, Altman la llamó «un buen comienzo».

En 2024, a medida que bajaban los números de las encuestas de Biden, el tono de Altman empezó a cambiar. «Creo que pase lo que pase en esta elección, Estados Unidos estará bien», dijo.

Tras la victoria de Trump, Altman donó 1M de dólares a su fondo de inauguración y luego se hizo un selfie en la ceremonia de inauguración con influencers, Jake y Logan Paul.

En X, con su estilo de minúsculas característico, Altman escribió: «Observé @potus con más detenimiento recientemente y eso cambió mi perspectiva sobre él (espero haber hecho más reflexión personal…)».

Trump anuló la orden ejecutiva sobre IA de Biden el primer día de su presidencia.

«Encontró una manera de ejecutar las órdenes de Trump que funciona», dijo un alto funcionario de la época de Biden sobre Altman.

Del patrón de Y Combinator a OpenAI

El tiempo de Altman en Y Combinator le estableció un patrón para su conducta en OpenAI.

En 2018, varios socios de Y.C. estaban tan frustrados con el comportamiento de Altman que fueron a quejarse con Graham. Graham y su esposa, Jessica Livingston, fundadora de Y.C., aparentemente tuvieron una conversación directa con Altman.

Después, Graham empezó a contar a la gente que, aunque Altman acordaba irse de la empresa, en la práctica se resistía.

Altman les dijo a algunos socios de Y.C. que renunciaría al cargo de presidente, pero que sería presidente del consejo.

En mayo de 2019, un post de blog anunciando un nuevo presidente de Y.C. incluía un asterisco: «Sam está en transición a presidente de YC».

Unos meses después, esa publicación se editó a: «Sam Altman salió de cualquier cargo oficial en YC»; luego, esa frase se eliminó por completo.

Aun así, hasta 2021, un documento de la Comisión de Bolsa y Valores (SEC) seguía listando a Altman como presidente del consejo de Y Combinator.

Altman dice que no supo de eso hasta mucho después.

Durante años, Altman sostuvo públicamente y también en testimonios recientes que nunca fue despedido por Y.C.; nos dijo que no se resistió a irse.

En Twitter, Graham dijo sobre Y.C. y OpenAI que «no queríamos que se fuera, solo queríamos elegir»; en una declaración nos dijo: «No teníamos poder legal para despedir a nadie. Lo que podíamos hacer era ejercer presión moral».

Pero en privado, fue inequívoco al decir que Altman fue removido debido a la falta de confianza por parte de los socios de Y.C.

Esta descripción de la etapa de Altman en Y Combinator se basa en conversaciones con varios fundadores y socios de Y.C., además de materiales de la época, y todo indica que la ruptura no fue completamente recíproca.

En una ocasión, Graham le dijo a un colega en Y.C. que antes de que lo retiraran: «Sam nos ha estado mintiendo a todos nosotros».

El arte de persuadir

Altman no es un genio técnico. Según muchas personas de su círculo, le faltan conocimientos amplios de codificación o de aprendizaje automático. Varios ingenieros recuerdan que él usó mal o confundió términos técnicos básicos.

Construyó OpenAI, en gran medida, aprovechando el dinero y el talento técnico de otros.

Eso no lo hace único. Lo hace un empresario.

Lo más notable es su capacidad para persuadir a ingenieros cautelosos, inversores y al público escéptico de la tecnología a que crean que sus prioridades son las correctas, incluso si se contradicen.

Cuando estas personas intentan frenar sus siguientes pasos, él suele encontrar formas de neutralizarlos; al menos por un tiempo. Usualmente, cuando ellos pierden la paciencia, él ya obtuvo lo que necesitaba.

«La estructura que creó, en papel, lo limitaría en el futuro», dijo el ex investigador de OpenAI Wainwright. «Pero cuando llegó el futuro, derogó esa estructura».

«Es increíblemente persuasivo. Como, trucos mentales tipo Jedi», dijo un ejecutivo tecnológico que trabajó con Altman. «Es otro nivel».

En la investigación de alineamiento, un escenario hipotético clásico implica una competencia de voluntades entre humanos y una IA de alta capacidad. En ese tipo de competencia, los investigadores suelen asumir que la IA ganará, igual que un gran maestro de ajedrez gana contra un niño.

Observando a Altman durante el Blip, superando e intimidando a quienes lo rodeaban, este ejecutivo continuó: como mirar «a un AGI rompiendo la caja».

¿A quién deberíamos creer?

Entrevistamos a más de 100 personas que conocían de primera mano cómo Altman hace negocios: empleados y miembros del consejo actuales y anteriores de OpenAI; invitados y personal de distintas propiedades de Altman; sus colegas y competidores; sus amigos y enemigos; y también algunas personas que, dada la cultura de mercenarios de Silicon Valley, han sido ambas cosas.

Algunos defendieron la capacidad comercial de Altman y desestimaron a sus competidores, especialmente Sutskever y Amodei, como aspirantes fallidos a su trono.

Otros los describieron como científicos fáciles de engañar, distraídos, o “apocalípticos” histéricos, atormentados por la fantasía de que el software que estaban construyendo de alguna manera cobraría vida y los mataría.

El ex miembro del consejo Yoon cree que Altman «no es ese villano maquiavélico», sino que, hasta el punto de la «incapacidad», fue capaz de convencerse de la realidad cambiante de su discurso de venta.

«Está demasiado inmerso en sus propias creencias sobre sí mismo», dijo. «Así que lo que hace no tiene sentido si vives en el mundo real. Pero él no vive en el mundo real».

Sin embargo, la mayoría de las personas a las que entrevistamos estuvo de acuerdo con el juicio de Sutskever y Amodei: Altman tiene una voluntad de poder despiadada que lo hace diferente incluso entre empresarios que ponen su nombre en naves espaciales y cosas así.

«No está sujeto a la verdad», nos dijo un miembro del consejo. «Tiene dos rasgos que casi nunca se ven juntos en una misma persona. El primero es un intenso deseo de complacer, de ser querido, en cualquier interacción dada. El segundo es una falta casi antisocial de atención a las consecuencias de engañar a alguien».

Este miembro del consejo no fue el único que usó la palabra “antisocial” de forma espontánea.

Un compañero de Altman en los primeros lotes de Y Combinator era Aaron Swartz: un programador talentoso pero con dificultades, que se suicidó en 2013 y que ahora es recordado en muchos círculos tecnológicos como una especie de santo.

Poco antes de su muerte, Swartz expresó a varios amigos sus preocupaciones sobre Altman. «Necesitas entender que Sam nunca puede ser confiado», le dijo a un amigo. «Es un antisocial. Haría cualquier cosa».

Varios altos directivos de Microsoft dijeron que, aunque Nadella ha sido leal por mucho tiempo, la relación de la empresa con Altman se ha tensado.

«Deforma, tergiversa, renegocia, rompe acuerdos», dijo uno.

Este año, OpenAI reafirmó que Microsoft es su “proveedor exclusivo en la nube sin estado” o sin memoria para sus modelos. Ese mismo día, anunció un acuerdo de 1M de dólares que convierte a Amazon en el distribuidor exclusivo de su plataforma empresarial de agentes de IA.

Aunque se permite revender, ejecutivos de Microsoft creen que el plan de OpenAI podría entrar en conflicto con la exclusividad.

OpenAI insiste en que el acuerdo con Amazon no viola los contratos anteriores; un representante de Microsoft dijo que la empresa “cree que OpenAI entiende y respeta” sus obligaciones legales.

Los altos directivos de Microsoft dijeron sobre Altman: «Creo que hay una pequeña pero real posibilidad de que al final se le recuerde como un estafador del nivel de Bernie Madoff o Sam Bankman-Fried».

¿En qué apuesta OpenAI?

La premisa para la creación de OpenAI era que la IA podría ser la invención más poderosa, pero también la más peligrosa, de la historia humana. Por lo tanto, se necesitaba una estructura corporativa poco habitual.

El CEO debe ser una persona con integridad extraordinaria.

Según Sutskever, «cualquier persona que se dedica a construir esta tecnología que cambiará la civilización lleva una carga pesada y asume una responsabilidad sin precedentes».

Pero «la gente que termina ocupando esos puestos suele ser algún tipo de persona interesada en el poder: un político, alguien a quien le gusta».

En uno de los memorandos, parece preocuparse por delegar la tecnología a alguien que “solo les dice a la gente lo que quiere escuchar”.

Si se demostraba que el CEO de OpenAI no era confiable, el consejo directivo de seis miembros tiene el poder de despedirlo.

Algunos miembros, incluyendo la experta en políticas de IA Helen Toner y la empresaria Tasha McCauley, recibieron el memorando como confirmación de algo que ya creían: la delegación de la futura humanidad por parte del rol de Altman, pero que no se le puede confiar.

En las tensas llamadas posteriores al despido, el consejo instó a Altman a reconocer el patrón de engaño.

«Lo estás arruinando todo, joder», repetía él, según la gente en la llamada. «No puedo cambiar mi personalidad».

Altman dice que no recuerda esa conversación. «Quizá quise decir: “sí, intenté ser una fuerza de unidad”», nos dijo, y añadió que ese rasgo lo hace capaz de liderar una empresa extremadamente exitosa.

Atribuyó la crítica a una tendencia: especialmente al inicio de su carrera profesional, «evitar demasiado el conflicto».

Pero un miembro del consejo ofreció una explicación diferente: «Eso significa: “Tengo este rasgo de mentirle a la gente y no voy a dejar de hacerlo”».

¿Los colegas que impulsaron el despido de Altman lo hicieron por alarmismo y rencor personal, o tenían razón al decir que no se le puede confiar?

En febrero de 2024, hablamos de nuevo con Altman. Llevaba un suéter verde oscuro y jeans, sentado frente a una foto de un rover de la NASA en la Luna. Metió una pierna debajo de sí y la colgó en el reposabrazos.

Nos dijo que, en el pasado, su defecto principal como gerente era que deseaba evitar conflictos. «Ahora me encanta despedir gente rápido», nos dijo. «Me encanta decir: “Vamos a apostar en esta dirección”.» Cualquier empleado que no le guste la selección que hace tiene que «irse».

Es más optimista sobre el futuro que nunca. «Defino la victoria como que la gente se vuelve loca mejorando, una locura de futuro de ciencia ficción para todos nosotros, y que ese futuro de ciencia ficción se haga realidad», dijo. «En términos de mis esperanzas para la humanidad y de lo que espero que todos nosotros logremos, tengo una ambición enorme. Es extraño: casi no tengo ambición personal».

A veces parece darse cuenta de eso. «Nadie cree que haces esto solo porque sea divertido», dijo. «Lo haces por poder o por otra cosa».

Incluso personas cercanas a Altman tienen dificultades para saber dónde termina su “esperanza por la humanidad” y dónde empieza su ambición.

Su mayor ventaja siempre ha sido su habilidad para hacer que distintos grupos crean que lo que él quiere y lo que ellos necesitan es la misma cosa.

Aprovechó un momento histórico único, cuando el público estaba cauteloso por el “hype” del sector tecnológico y la mayoría de los investigadores capaces de construir AGI le tenían miedo a llevarlo a la existencia.

La respuesta de Altman fue un movimiento que ningún otro vendedor había perfeccionado: usó un lenguaje apocalíptico para explicar cómo la AGI destruiría a todos nosotros. Así, por qué debería ser él quien la construyera.

Quizá sea una obra maestra premeditada. Quizá simplemente está tanteando una ventaja.

Sea cual sea el caso, funcionó.

Ahora la pregunta es: ¿en qué estamos apostando todos nosotros?

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado