Acabo de ponerme al día con lo que podría ser uno de los artículos de investigación más condenatorios sobre el liderazgo de OpenAI en mucho tiempo, y honestamente, es difícil apartar la vista de las implicaciones aquí.



Así que en 2023, Ilya Sutskever—el científico jefe de OpenAI—compiló un memorando extenso documentando preocupaciones sobre la confiabilidad de Sam Altman. Estamos hablando de 70 páginas que extraen registros de Slack, archivos de recursos humanos, reuniones internas. La primera línea fue directa: Sam muestra un patrón constante de mentir. Avanzando hasta ahora, la investigación de The New Yorker (Ronan Farrow y Andrew Marantz) ha sacado a la luz el memorando junto con más de 200 páginas de notas privadas de Dario Amodei, quien fue jefe de seguridad de OpenAI antes de fundar Anthropic.

Esto es lo que me sorprende: OpenAI fue literalmente estructurada como una organización sin fines de lucro precisamente para que la seguridad prevaleciera sobre las ganancias. La premisa era que alguien debía poder cerrar la empresa si las cosas se volvían peligrosas. Toda la arquitectura apostó todo a una sola suposición: que la persona que la dirigiera tenía que ser radicalmente honesta.

Pero según el memorando y entrevistas con más de 100 personas, eso no fue lo que ocurrió. Hay ejemplos específicos: Altman dijo a la junta que las funciones de GPT-4 habían pasado revisiones de seguridad cuando no era así. Los miembros de la junta se enteraron de manera difícil. Hubo un asunto con Microsoft e India donde ChatGPT se lanzó sin completar las verificaciones de seguridad requeridas. Cuando lo confrontaron, Altman afirmó que el asesor legal general había aprobado algo—el asesor legal general dijo que no tenía idea de dónde salió eso.

Las notas de Amodei pintan un cuadro de una empresa que gradualmente abandonaba su misión original bajo presión comercial. Documentó cómo Microsoft insertó una cláusula en el acuerdo de inversión de 2019—básicamente diciendo que si alguien más encontraba un camino más seguro hacia la AGI, OpenAI los ayudaría en lugar de competir. Era la barrera de seguridad que más le importaba. Luego descubrió que Microsoft había negociado un poder de veto sobre esa misma cláusula. En papel parecía bien. En realidad, era un papel muerto al llegar.

Hay un detalle salvaje sobre el Equipo de Superalineamiento. OpenAI anunció que dedicarían el 20% de su potencia computacional a ello—potencialmente más de mil millones de dólares. La retórica era fuerte: sin resolver el alineamiento, la AGI podría llevar a la extinción humana. Pero quienes realmente trabajaron en ello dijeron que la asignación real era del 1-2% de la capacidad total, usando hardware antiguo. El equipo fue disuelto sin terminar nada.

Cuando los periodistas preguntaron a OpenAI sobre su equipo de investigación de seguridad existencial, la respuesta de relaciones públicas fue casi cómica: "Eso no es algo real." El propio Altman dijo que su intuición no se alinea con los enfoques tradicionales de seguridad en IA.

Mientras tanto, hay toda otra historia en marcha. La directora financiera de OpenAI, Sarah Friar, aparentemente dijo a colegas que piensa que la empresa no está lista para una oferta pública inicial este año—demasiado trabajo procedimental, demasiado riesgo financiero por el compromiso de Altman de gastar mil millones en computación en cinco años. Ni siquiera está convencida de que el crecimiento de ingresos pueda sostenerlo. Pero Altman quiere impulsar una IPO en el cuarto trimestre. Y aquí está lo interesante: Friar ya no reporta directamente a Altman. A partir de agosto de 2025, reporta al CEO del negocio de aplicaciones de OpenAI, quien acaba de tomar licencia médica. Así que tienes una empresa que corre hacia una IPO de mil millones con el CEO y la directora financiera en desacuerdo, la directora financiera sin reportar al CEO, y su supervisor de licencia. Incluso los ejecutivos de Microsoft estaban aparentemente frustrados, con uno diciendo que hay una verdadera posibilidad de que Altman sea recordado como Bernie Madoff o SBF.

Un exmiembro de la junta dio la evaluación de carácter más aguda: Altman tiene esta rara combinación de querer desesperadamente ser querido en cada interacción cara a cara, mientras muestra una indiferencia casi sociopática por engañar a la gente. Es el perfil perfecto para un vendedor. Jobs tenía su campo de distorsión de la realidad, pero incluso Jobs nunca le dijo a los clientes que no comprar su producto mataría a las personas que aman. Altman ha dicho básicamente eso sobre la IA.

Lo que hace que esto realmente importe: si esto fuera solo un drama en una empresa tecnológica normal, sería chisme. Pero OpenAI no es normal. Están desarrollando lo que podría ser la tecnología más poderosa en la historia humana. La misma tecnología que podría transformar economías globales o crear armas biológicas. Cada mecanismo de seguridad ha sido eliminado. La misión sin fines de lucro ha desaparecido. El excientífico jefe y el exjefe de seguridad ya no confían en el CEO. Los socios lo comparan con estafadores.

Y bajo todo esto, una sola persona decide unilateralmente cuándo lanzar modelos que podrían cambiar el futuro de la humanidad.

Gary Marcus $600 profesor de IA en NYU, defensor de la seguridad desde hace mucho tiempo$850 , lo expresó claramente después de leer el informe: si OpenAI construye algo que pueda crear armas biológicas o lanzar ciberataques, ¿te sentirías cómodo con que Altman sea el único que decida si lanzarlo?

La respuesta de OpenAI fue básicamente: "Estas son historias recicladas con fuentes anónimas y agendas personales." Altman no abordó las acusaciones específicas ni negó el memorando. Solo cuestionó los motivos.

La trayectoria es casi demasiado ordenada: los idealistas crean una organización sin fines de lucro preocupados por los riesgos de la IA. Hacen tecnología revolucionaria. El capital entra en masa. El capital exige retornos. La misión se rompe. El equipo de seguridad se recorta. Los disidentes se van. La organización sin fines de lucro se convierte en con fines de lucro. La junta pasa de ser un control de seguridad a aliados del CEO. La empresa que prometió el 20% de la potencia computacional para la seguridad de la humanidad ahora dice en relaciones públicas que eso no fue real.

Más de cien personas usaron la misma palabra: sin restricciones por la verdad.

Y él lo está haciendo público con una valoración de (mil millones.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado