Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
«The New Yorker» investigación en profundidad: ¿Por qué los insiders de OpenAI consideran que Altman no es confiable?
En un cuerpo sin ánimo de lucro, creció un árbol que daba dinero.
Redacción: Xiao Bing, Deep Tide TechFlow
En otoño de 2023, el científico jefe de OpenAI, Ilya Sutskever, se sentó frente a un ordenador y completó un documento de 70 páginas.
El documento se recopiló a partir de registros de mensajes de Slack, archivos de comunicaciones de RR. HH. y minutas de reuniones internas, solo para responder a una pregunta: Sam Altman, el hombre que administra lo que podría ser la tecnología más peligrosa de la historia de la humanidad, ¿realmente puede ser confiado?
La respuesta que dio Sutskever está escrita en la primera página del documento, en la primera línea; el título de la lista es: “Sam muestra un patrón de conducta coherente…”
Primera: Miente.
Dos años y medio después, hoy, el periodista Ronan Farrow y Andrew Marantz publicaron un informe de investigación larguísimo en The New Yorker. Entrevistaron a más de 100 personas involucradas, obtuvieron memorandos internos que nunca se habían hecho públicos antes y, además, las más de 200 páginas de notas privadas que dejó Dario Amodei, fundador de Anthropic, durante su etapa en OpenAI. La historia armada por estos documentos es mucho más desagradable que aquella supuesta “intriga palaciega” de 2023: cómo OpenAI pasó, paso a paso, de ser una organización sin ánimo de lucro creada para la seguridad de los seres humanos, a convertirse en una máquina comercial; y casi cada uno de los frenos de seguridad, fue desmantelado a mano por la misma persona.
La conclusión de Amodei en sus notas es aún más directa: “El problema de OpenAI es Sam, él mismo.”
El “pecado original” de OpenAI
Para entender el peso de este reportaje, primero hay que aclarar cuán especial es esta empresa.
En 2015, Altman y un grupo de élites del Silicon Valley hicieron algo casi sin precedentes en la historia empresarial: usar una organización sin ánimo de lucro para desarrollar la que podría ser la tecnología más poderosa de la historia de la humanidad. Las responsabilidades del consejo están escritas con total claridad: la seguridad por delante del éxito de la empresa, e incluso por delante de la supervivencia de la empresa. En otras palabras: si algún día la IA de OpenAI se vuelve peligrosa, el consejo tiene la obligación de cerrar la empresa con sus propias manos.
Toda la arquitectura se apoya en una suposición: la persona que gestione la AGI debe ser extremadamente honesta.
¿Qué pasa si se equivocan en el pronóstico?
La bomba central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero hacia 2023, cada vez estaba más convencido de algo: Altman está diciendo mentiras de forma continuada a ejecutivos y al consejo.
Un ejemplo concreto: en diciembre de 2022, Altman aseguró en una reunión del consejo que varias de las funciones que se publicarían de GPT-4 ya habían pasado revisiones de seguridad. El consejero Toner pidió ver los documentos de aprobación; entonces descubrieron que dos de las funciones más controvertidas (ajuste fino de uso personalizado y despliegue del asistente personal) ni siquiera habían recibido aprobación del panel de seguridad.
Algo incluso más estrafalario ocurrió en India. Un empleado denunció a otro miembro del consejo lo que llamó “esa infracción”: Microsoft no había completado las revisiones de seguridad necesarias y, aun así, publicó de manera anticipada una versión temprana de ChatGPT en India.
Sutskever también registró en el memorando otra cosa: Altman había dicho a la ex CTO Mira Murati que el proceso de aprobación de seguridad no era tan importante, porque el asesor legal general de la empresa ya lo había aprobado. Murati fue a confirmar con el asesor legal general y la respuesta fue: “No sé de dónde saca Sam esa impresión”.
Las notas privadas de 200 páginas de Amodei
El documento de Sutskever parece un escrito de acusación de un fiscal. Las más de 200 páginas de notas que dejó Amodei se parecen más al diario de un testigo que escribió lo que vio en la escena del crimen.
Durante los años en que Amodei trabajó en OpenAI como responsable de seguridad, presenció cómo la empresa, bajo presión comercial, retrocedía paso a paso. En sus notas registró un detalle clave del caso de inversión de Microsoft de 2019: que él había insertado una cláusula de “fusión y asistencia” en los estatutos de OpenAI; en esencia, si otra empresa encontrara una ruta más segura hacia la AGI, OpenAI debía dejar de competir y, en su lugar, ayudar a esa compañía. Esa fue la salvaguarda de seguridad que más valoró en toda la operación.
Cuando la firma estaba por cerrarse, Amodei descubrió algo: Microsoft obtuvo el derecho de veto sobre esta cláusula. ¿Qué significa eso? Que incluso si algún día un competidor encontrara una ruta mejor, Microsoft podría bloquear de un solo golpe la obligación de ayudar de OpenAI. La cláusula seguía en el papel, pero desde el día que se firmó fue papel mojado.
Amodei se fue después de OpenAI y fundó Anthropic. La competencia entre ambas compañías se basa en una discrepancia fundamental sobre “cómo debería desarrollarse la IA”.
El compromiso de 20% de capacidad de cómputo que desapareció
En el reportaje hay un detalle que pone los pelos de punta al leerlo, sobre el supuesto “equipo súper alineado” de OpenAI.
A mediados de 2023, Altman contactó por correo a un doctorando que investigaba en Berkeley la “alineación engañosa” (la IA se comporta bien en las pruebas, pero luego hace lo suyo al desplegarse), y dijo que estaba muy preocupado por este problema, considerando crear un premio global de investigación de 1.000 millones de dólares. El doctorando se sintió muy animado, dejó de estudiar temporalmente y se incorporó a OpenAI.
Entonces Altman cambió de idea: ya no habría premios externos, y se crearía dentro de la empresa un “equipo súper alineado”. La empresa anunció de manera triunfal que destinaría el “20% de la capacidad de cómputo ya existente” a este equipo, con un valor potencial superior a 1.000 millones de dólares. El lenguaje del anuncio era extremadamente serio: decía que, si no se resolvía el problema de alineación, la AGI podría llevar a que “los seres humanos pierdan el poder, e incluso que la humanidad se extinga”.
Jan Leike, nombrado para liderar este equipo, luego le contó a los periodistas que la promesa en sí misma era una herramienta de retención de talento “muy efectiva”.
¿Y la realidad? Cuatro personas que trabajaban en este equipo o que tenían un contacto cercano con él dijeron que, en realidad, la capacidad de cómputo asignada era solo del 1% al 2% del total de capacidad de la empresa, y además con el hardware más antiguo. Luego el equipo fue disuelto y la misión quedó sin completar.
Cuando el periodista pidió entrevistar a personas encargadas de la investigación de “seguridad existencial” en OpenAI, la reacción del departamento de relaciones públicas de la empresa fue para llorar y reír a la vez: “Eso no es una cosa… que exista realmente”.
Altman, en cambio, fue tranquilo. Le dijo al reportero que su “intuición no encajaba del todo con muchas de las cosas tradicionales de la seguridad de la IA”, y que OpenAI seguiría haciendo “proyectos de seguridad, o al menos proyectos que se acerquen a la seguridad”.
El CFO al que le quitaron poder y el IPO que se aproxima
El reportaje de The New Yorker es solo la mitad de las malas noticias de ese día. En el mismo día, The Information sacó otra noticia de gran impacto: el CFO de OpenAI, Sarah Friar, tuvo un grave desacuerdo con Altman.
Friar dijo en privado a sus colegas que creía que OpenAI aún no estaba lista para salir a bolsa este año. Dos razones: la cantidad de trabajo programático y organizativo por completar era demasiado grande, y el riesgo financiero derivado del gasto de 5 años y 600.000 millones de dólares en capacidad de cómputo prometido por Altman era demasiado alto. Incluso no estaba segura de si el crecimiento de ingresos de OpenAI podría sostener estas promesas.
Pero Altman quería impulsar el IPO en el cuarto trimestre de este año.
Lo más increíble es que Friar ya no le reportaba directamente a Altman. Desde agosto de 2025, comenzó a reportar a Fidji Simo (CEO de negocio de aplicaciones de OpenAI). Y Simo se tomó una baja por enfermedad la semana pasada por motivos de salud. Ahora ponlo en perspectiva: una empresa que acelera el IPO, con desacuerdos fundamentales entre el CEO y el CFO; el CFO no le reporta al CEO; y el superior del CFO también se tomó una baja.
Incluso directivos internos de Microsoft dijeron que no podían con esto, y comentaron que Altman “distorsiona los hechos, se echa atrás en lo acordado y va desmantelando de forma continua los acuerdos ya alcanzados”. Un directivo de Microsoft llegó a decir algo así: “Siento que hay cierta probabilidad de que finalmente lo recuerden como un estafador del nivel de Bernie Madoff o SBF”.
El retrato de “doble cara” de Altman
Un ex miembro del consejo directivo de OpenAI describió al periodista dos cualidades que Altman tiene en sí mismo. Es posible que este fragmento sea el retrato más duro de personaje de todo el reportaje.
Ese consejero dijo que Altman tiene una combinación de cualidades extremadamente rara: en cada conversación cara a cara, tiene un deseo intenso de complacer al otro y de que el otro le guste. Al mismo tiempo, tiene una indiferencia casi psicopática ante las consecuencias que podría acarrear engañar a otras personas.
Que ambas cualidades aparezcan en una sola persona es sumamente raro. Pero para un vendedor, es el talento perfecto.
El reportaje tiene una buena analogía: se dice que Jobs era famoso por su “campo de distorsión de la realidad”; era capaz de hacer que todo el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a sus clientes: “Si no compras mi reproductor MP3, la persona que amas morirá”.
Altman ha dicho algo parecido, sobre la IA.
Un problema de integridad en un CEO: por qué es un riesgo para todos
Si Altman fuera solo el CEO de una empresa tecnológica normal, estas acusaciones serían, en el mejor de los casos, un entretenido chisme empresarial. Pero OpenAI no es una empresa normal.
Según lo que la propia empresa dice, está desarrollando la tecnología más poderosa de la historia de la humanidad. Puede reconfigurar la economía global y el mercado laboral (OpenAI acaba de publicar un libro blanco de políticas sobre el problema del desempleo causado por la IA), y también puede usarse para fabricar armas biológicas a gran escala o lanzar ataques cibernéticos.
Todos los frenos de seguridad ya no significan nada. La misión sin ánimo de lucro de los fundadores cedió el paso al sprint hacia el IPO. El ex científico jefe y el ex responsable de seguridad concluyeron que el CEO es “no confiable”. Los socios comparan al CEO con SBF. En este contexto, ¿con qué derecho este CEO decide unilateralmente cuándo lanzar un modelo de IA que podría cambiar el destino de la humanidad?
Gary Marcus (profesor de IA en la Universidad de Nueva York y defensor de larga data de la seguridad de la IA) escribió una frase después de leer el reportaje: si algún modelo futuro de OpenAI pudiera construir armas biológicas a gran escala o lanzar ataques cibernéticos catastróficos, ¿de verdad te sientes cómodo dejándole a Altman, solo él, la decisión de si se publica o no?
La respuesta de OpenAI a The New Yorker fue, en cambio, concisa: “La mayor parte de este artículo vuelve a dar vueltas sobre hechos ya reportados; mediante afirmaciones anónimas y anécdotas selectivas, las fuentes claramente tienen objetivos personales”.
Una respuesta muy al estilo de Altman: no responde acusaciones específicas, no niega la autenticidad de los memorandos, solo cuestiona la motivación.
En un cuerpo sin ánimo de lucro, creció un árbol que daba dinero
El decenio de OpenAI, escrito como un esquema de historia, es así:
Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin ánimo de lucro impulsada por su misión. La organización logra avances tecnológicos extraordinarios. Los avances atraen enormes cantidades de capital. El capital necesita retorno. La misión empieza a abrir paso. El equipo de seguridad se disuelve. Se limpia a quienes cuestionan. La arquitectura sin ánimo de lucro se convierte en una entidad con fines de lucro. Antes tenían el poder de cerrar la empresa, y ahora está lleno de aliados del CEO. Antes se había prometido destinar 20% de la capacidad de cómputo para proteger la seguridad de la humanidad, y ahora, el personal de relaciones públicas dice: “Eso no es una cosa que exista realmente”.
El protagonista de la historia, más de cien personas que lo vivieron en primera persona, le puso la misma etiqueta: “No está sujeto a la verdad”.
Está por llevar a esta empresa a su salida a bolsa (IPO), con una valoración superior a 850.000 millones de dólares.
El contenido de este artículo se compila a partir de reportes públicos de varios medios, como The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, etc.