Acabo de leer algo que me dejó bastante descolocado. The New Yorker acaba de publicar una investigación masiva donde periodistas como Ronan Farrow obtuvieron documentos internos de OpenAI que revelan un patrón preocupante: aparentemente Sam Altman ha estado mintiendo sistemáticamente a la junta directiva y ejecutivos sobre cuestiones críticas de seguridad.



El punto de partida es brutal. Ilya Sutskever, el científico principal de OpenAI, compiló un documento de 70 páginas hace un par de años basado en mensajes de Slack, comunicaciones de RRHH y actas de reuniones. Su conclusión en la primera línea: Sam muestra un patrón consistente de mentir. Un ejemplo concreto que aparece en la investigación: en diciembre de 2022, Altman le garantizó a la junta que varias funciones de GPT-4 habían pasado revisión de seguridad. Cuando pidieron ver los documentos de aprobación, descubrieron que dos de las características más controvertidas nunca fueron revisadas por el panel de seguridad.

Pero lo que realmente me llamó la atención fue lo que encontraron en las notas personales de Dario Amodei, fundador de Anthropic y ex responsable de seguridad en OpenAI. Más de 200 páginas donde documenta cómo la empresa fue retrocediendo paso a paso bajo presión comercial. Un detalle clave: cuando Microsoft invirtió en 2019, negoció una cláusula de 'fusión y asistencia' que supuestamente garantizaba que si otro competidor encontraba una ruta más segura hacia AGI, OpenAI debería ayudar. Suena bien en papel. El problema es que Microsoft también obtuvo derecho de veto sobre esa misma cláusula, lo que la convirtió en promesa vacía desde el día de la firma.

Hay algo que suena casi absurdo pero es completamente real: el equipo de 'superalineación' de OpenAI. Altman anunció públicamente que dedicarían el 20% de la capacidad de cómputo existente a investigar alineación de IA, con un valor potencial superior a mil millones de dólares. Fue un anuncio serio, mencionando riesgos de extinción humana y todo eso. Pero cuando los periodistas hablaron con cuatro personas que trabajaron en ese equipo, la realidad era diferente: la potencia de cómputo asignada era solo entre 1% y 2% del total, además era hardware antiguo. El equipo fue disuelto sin completar su misión.

Mientras esto pasaba, la CFO de OpenAI, Sarah Friar, tenía serias diferencias con Altman sobre una posible IPO. Friar cree que la empresa no está lista para salir a bolsa este año, considerando la cantidad de trabajo pendiente y los riesgos financieros del compromiso de Altman de gastar 600 mil millones en capacidad de cómputo en cinco años. Pero aquí está lo extraño: Friar ya no reporta directamente a Altman, ahora reporta a Fidji Simo, quien acaba de tomarse licencia por salud. Una empresa preparándose para IPO con esas dinámicas internas es, bueno, complicada.

Un exmiembro de la junta describió a Altman con dos características simultáneas: un deseo genuino de agradar en cada interacción cara a cara, pero al mismo tiempo una indiferencia casi sociopática ante las consecuencias de engañar a otros. Esa combinación, según el reporte, es rara en las personas pero perfecta para un vendedor.

Lo que me preocupa es que esto no es solo chisme corporativo. OpenAI está desarrollando lo que ellos mismos describen como posiblemente la tecnología más poderosa de la historia humana. Tecnología que podría reconfigurar la economía, crear armas bioquímicas a escala, o llevar a cabo ataques cibernéticos. Y los salvaguardas de seguridad que supuestamente protegían contra estos riesgos han sido desmantelados. El ex científico principal y el ex responsable de seguridad consideran al CEO poco confiable. Los ejecutivos de Microsoft lo comparan con SBF.

La respuesta de OpenAI a The New Yorker fue minimizadora: dijeron que el artículo reitera eventos ya reportados usando afirmaciones anónimas. Altman no respondió a las acusaciones específicas, solo cuestionó los motivos de las fuentes.

Diez años de OpenAI resumidos: un grupo de idealistas crea una organización sin fines de lucro para proteger la humanidad de riesgos de IA. Logran avances extraordinarios. El capital llega masivo. La misión comienza a ceder. El equipo de seguridad se disuelve. Los críticos desaparecen. La estructura sin fines de lucro se transforma en entidad con fines de lucro. El consejo que tenía poder para cerrar la empresa ahora está lleno de aliados del CEO. La empresa que prometía dedicar el 20% de su potencia para proteger la seguridad humana ahora tiene voceros diciendo que la investigación sobre seguridad existencial 'no es algo que realmente exista'.

Y el protagonista de esta historia está a punto de llevar a OpenAI a IPO con una valoración superior a 850 mil millones de dólares. Ciento de testigos presenciales le dieron la misma etiqueta: no está sujeto a la verdad.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado