《The New Yorker》 investigación en profundidad: ¿Por qué los insiders de OpenAI consideran que Altman no es confiable?

作者 original: 小饼, profundo TechFlow

En el otoño de 2023, el científico jefe de OpenAI, Ilya Sutskever, se sentó frente a su computadora y terminó un documento de 70 páginas.

Este documento se basa en registros de mensajes de Slack, expedientes de comunicación de RR. HH. y actas de reuniones internas, solo para responder una pregunta: Sam Altman, el hombre que podría estar controlando la tecnología más peligrosa de toda la historia de la humanidad, ¿puede realmente confiarse en él?

La respuesta que Sutskever da queda escrita en la primera página, en la primera línea: el título de la lista es «Sam muestra un patrón constante de conducta…».

Primera: Miente.

Dos años y medio después, hoy, el periodista de investigación Ronan Farrow y Andrew Marantz publicaron un reportaje de investigación de lectura larguísima en The New Yorker. Entrevistaron a más de 100 personas involucradas, obtuvieron memorandos internos que antes nunca se habían hecho públicos y también notas privadas de más de 200 páginas dejadas por el fundador de Anthropic, Dario Amodei, durante su etapa en OpenAI. La historia que se arma con esos documentos es mucho más fea que aquella «intriga» de 2023: cómo OpenAI, que nació como una organización sin fines de lucro creada para la seguridad de los seres humanos, se convirtió paso a paso en una máquina comercial, y casi todas las barandas de seguridad fueron desmontadas, una por una, por la misma persona.

La conclusión de Amodei en sus notas es aún más directa: «El problema de OpenAI es Sam en persona».

El «pecado original» de OpenAI

Para entender el peso de este reportaje, primero hay que explicar qué tan especial es esta empresa.

En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo que casi no tiene precedentes en la historia empresarial: usar una organización sin fines de lucro para desarrollar una tecnología que podría ser la más poderosa de toda la historia de la humanidad. Las responsabilidades del consejo estaban escritas de manera muy clara: la seguridad primero, por encima del éxito de la empresa e incluso por encima de la supervivencia de la empresa. En pocas palabras: si un día la IA de OpenAI se vuelve peligrosa, el consejo tiene la obligación de cerrar esa empresa a mano.

Toda la arquitectura se apoyaba en un supuesto: la persona que dirige la AGI debe ser extremadamente honesta.

¿Y si se equivocaban al elegir?

La bomba central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero en 2023, cada vez estaba más seguro de una cosa: Altman está mintiendo de manera continua a altos ejecutivos y al consejo de administración.

Un ejemplo concreto: en diciembre de 2022, Altman aseguró en una reunión del consejo que varias funciones del GPT-4 que se publicaría ya habían pasado revisiones de seguridad. El miembro del consejo Toner pidió ver los documentos de aprobación y descubrió que dos de las funciones más controvertidas (ajuste fino personalizado de los usuarios y el despliegue de un asistente personal) ni siquiera habían recibido aprobación en el panel de seguridad.

Lo más alucinante ocurrió en India. Un empleado denunció a otro miembro del consejo el «incumplimiento» de aquella vez: Microsoft no había completado las revisiones de seguridad necesarias y, aun así, lanzó de forma anticipada en India una versión temprana de ChatGPT.

Sutskever también registró en el memorando otra cosa: Altman le dijo a la ex CTO, Mira Murati, que el proceso de aprobación de seguridad no era tan importante, porque el asesor legal general de la empresa ya había dado su aprobación. Murati fue a confirmarlo con el asesor legal general y él respondió: «No sé de dónde saca Sam esa impresión».

Las notas privadas de 200 páginas de Amodei

El documento de Sutskever se parece a un escrito de acusación de un fiscal. Las más de 200 páginas de notas que dejó Amodei se parecen más al diario que escribiría un testigo presencial en la escena del crimen.

Durante los años en que Amodei trabajó en OpenAI como responsable de seguridad, vio de primera mano cómo la empresa retrocedía paso a paso bajo presión comercial. En sus notas registró un detalle clave del caso de inversión de Microsoft en 2019: él había metido en los estatutos de OpenAI una cláusula de «fusión y asistencia», que venía a decir que, si otra empresa encontraba una ruta de AGI más segura, OpenAI debía dejar la competencia y pasar a ayudar a esa empresa. Esa fue la salvaguarda de seguridad que más valoró en toda la transacción.

Cuando la firma estaba a punto de ocurrir, Amodei descubrió algo: Microsoft obtuvo el poder de veto sobre esa cláusula. ¿Qué significa eso? Incluso si un día un competidor encontrara una ruta mejor, Microsoft podría impedir de un solo golpe la obligación de asistencia de OpenAI. La cláusula seguía en el papel, pero desde el día en que se firmó ya era papel mojado.

Amodei más tarde dejó OpenAI y fundó Anthropic. La competencia entre ambas compañías se basa en diferencias fundamentales sobre «cómo debe desarrollarse la IA».

El compromiso de 20% de potencia de cómputo que desapareció

En el reportaje hay un detalle que al terminar eriza la piel, sobre el «equipo súper alineado» de OpenAI.

A mediados de 2023, Altman contactó por correo a un doctorando en Berkeley investigando la «alineación engañosa» (la IA se hace la buena en las pruebas, pero luego en el despliegue real hace lo suyo). Le dijo que estaba muy preocupado por ese problema y que estaba considerando crear un premio global de investigación de 1.000 millones de dólares. El doctorando se sintió muy alentado, dejó su año académico, y se incorporó a OpenAI.

Luego Altman cambió de opinión: ya no habría premios externos; en su lugar, se crearía dentro de la empresa un «equipo súper alineado». La empresa lo anunció con gran bombo y platillo: asignarían el «20% de la potencia de cómputo ya existente» a ese equipo, con un valor potencial de más de 1.000 millones de dólares. El lenguaje del anuncio era extremadamente serio: decía que si el problema de la alineación no se resolvía, la AGI podría llevar a «la pérdida del poder por parte de la humanidad e incluso la extinción de la humanidad».

Jan Leike, nombrado para liderar este equipo, luego le dijo a los reporteros que el propio compromiso era una herramienta de «retención de talento» muy efectiva.

¿Y la realidad? Cuatro personas que trabajaban en el equipo o que estaban en contacto estrecho con él dijeron que la potencia de cómputo asignada realmente solo era del 1% al 2% de la potencia total de la empresa, y además con el hardware más antiguo. Ese equipo más tarde se disolvió, sin completar su misión.

Cuando el reportero pidió entrevistar al personal encargado de la investigación de «seguridad existencial» en OpenAI, la respuesta de relaciones públicas de la empresa fue para llorar y reír a la vez: «Eso no es una… cosa que exista de verdad».

Altman, en cambio, fue bastante tranquilo. Le dijo a los reporteros que su «intuición no encaja mucho con muchas cosas tradicionales sobre la seguridad de la IA», y que OpenAI aún haría «proyectos de seguridad o, al menos, proyectos relacionados con la seguridad».

El CFO apartado y el IPO que se aproxima

El reportaje de The New Yorker fue solo la mitad de las malas noticias de ese día. El mismo día, The Information reveló otra noticia importante: se produjo una grave discrepancia entre el CFO de OpenAI, Sarah Friar, y Altman.

Friar le contó en privado a colegas que consideraba que OpenAI todavía no estaba lista para salir a bolsa este año. Dos razones: la carga de trabajo de tipo procesal y organizativa que quedaba por completar era demasiado grande, y el riesgo financiero era demasiado alto por el gasto de potencia de cómputo a 5 años de 600.000 millones de dólares prometido por Altman. Incluso no estaba segura de si el crecimiento de ingresos de OpenAI podría sostener esas promesas.

Pero Altman quería lanzarse al IPO en el cuarto trimestre de este año.

Lo más alucinante es que Friar ya no reportaba directamente a Altman. Desde agosto de 2025, cambió a reportar a Fidji Simo (CEO de negocios de aplicaciones de OpenAI). Y Simo pidió baja por enfermedad la semana pasada por motivos de salud. Juzga tú mismo este panorama: una empresa que se acelera hacia un IPO, con CEO y CFO en desacuerdo fundamental, el CFO no le reporta al CEO y, además, el superior del CFO también está de vacaciones.

Incluso directivos dentro de Microsoft no pudieron soportarlo y dijeron que Altman «distorsiona los hechos, rompe promesas y sigue tirando por la borda acuerdos que ya se habían alcanzado». Un directivo de Microsoft incluso dijo algo así: «Creo que tiene cierta probabilidad de que al final lo recuerden como un estafador del nivel de Bernard Madoff o SBF».

El retrato de «doble cara» de Altman

Un ex miembro del consejo de OpenAI describió ante reporteros dos características que se ven en Altman. Este párrafo es quizá el retrato más duro de personajes de todo el reportaje.

Ese miembro del consejo dijo que Altman tiene una combinación de rasgos extremadamente rara: tiene una necesidad muy fuerte de complacer a la otra persona y de que la otra persona le guste en cada interacción cara a cara. Al mismo tiempo, tiene una indiferencia casi psicopática ante las posibles consecuencias de engañar a otras personas.

Que ambos rasgos coexistan en una sola persona es extremadamente raro. Pero para un vendedor es un talento perfecto.

El reportaje usa una metáfora que queda muy bien: se dice que Jobs era conocido por su «campo de distorsión de la realidad»; podía hacer que todo el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a los clientes: «Si no compras mi reproductor MP3, la gente que quieres morirá».

Altman ha dicho algo similar, sobre la IA.

Un problema de ética de un CEO, por qué es un riesgo para todos

Si Altman fuera solo el CEO de una empresa tecnológica común, estas acusaciones serían, como mucho, un jugoso rumor empresarial. Pero OpenAI no es una empresa común.

Según su propia versión, están desarrollando una tecnología que podría ser la más poderosa de toda la historia de la humanidad. Puede reconfigurar la economía global y el mercado laboral (OpenAI acaba de publicar un libro blanco de políticas sobre el problema del desempleo causado por la IA), y también puede usarse para fabricar armas biológicas a gran escala o para lanzar ataques cibernéticos.

Todas las salvaguardas de seguridad están en papel mojado. La misión sin fines de lucro del fundador cedió paso a la carrera por el IPO. Tanto el ex científico jefe como el ex responsable de seguridad concluyeron que el CEO es «no confiable». Los socios comparan al CEO con SBF. En este contexto, ¿con qué derecho un CEO decide unilateralmente cuándo publicar modelos de IA que podrían cambiar el destino de la humanidad?

Gary Marcus (profesor de IA en la Universidad de Nueva York, y defensor de la seguridad de la IA a largo plazo) escribió una frase después de leer el reportaje: si algún modelo futuro de OpenAI pudiera crear armas biológicas a gran escala o lanzar ataques cibernéticos catastróficos, ¿de verdad te sentirías tranquilo dejando que Altman decida solo si se publica o no?

La respuesta de OpenAI al The New Yorker fue, en cambio, concisa: «La mayor parte de este artículo consiste en dar vueltas a hechos que ya habían sido reportados, mediante explicaciones anónimas y anécdotas selectivas; las fuentes claramente tienen fines personales».

Así es como responde Altman: sin responder acusaciones específicas, sin negar la autenticidad de los memorandos, solo cuestiona las motivaciones.

Sobre un cadáver de una ONG, crece un árbol que da dinero

La década de OpenAI, si se convierte en un esquema de historia, sería así:

Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin fines de lucro impulsada por su misión. La organización logra avances tecnológicos extraordinarios. Los avances atraen grandes cantidades de capital. El capital exige retornos. La misión empieza a quedar en segundo plano. El equipo de seguridad se disuelve. Los que cuestionan son depurados. La estructura sin fines de lucro se transforma en una entidad con fines de lucro. El consejo que antes tenía poder para cerrar la empresa ahora está lleno de aliados del CEO. La empresa que antes prometía dedicar el 20% de la potencia de cómputo para proteger la seguridad de la humanidad, ahora con la voz de sus relaciones públicas dice: «Eso no es una cosa que exista de verdad».

El protagonista de la historia, más de cien personas que vivieron esos hechos, le ponen la misma etiqueta: «No sujeta a la verdad».

Está listo para llevar a esta empresa a un IPO con una valoración superior a 850.000 millones de dólares.

El contenido de este artículo se compone a partir de reportes públicos de varios medios, incluido The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, etc.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado