Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
«The New Yorker» investigación en profundidad: ¿Por qué los insiders de OpenAI consideran que Altman no es confiable?
Autor original: Xiao Bing, Deep Tide TechFlow
En el otoño de 2023, el científico jefe de OpenAI, Ilya Sutskever, se sentó frente a un ordenador y completó un documento de 70 páginas.
Este documento organiza registros de mensajes de Slack, archivos de comunicación de RR. HH. y actas de reuniones internas, solo para responder una pregunta: Sam Altman, que controla lo que quizá sea la tecnología más peligrosa de toda la historia humana, ¿realmente puede ser confiado?
La respuesta dada por Sutskever está escrita en la primera página, en la primera línea del documento; el título de la lista es: “Sam muestra un patrón constante de conducta…”
La primera: Mentir.
Dos años y medio después, hoy, el periodista de investigación Ronan Farrow y Andrew Marantz publicaron un reportaje de investigación de extensión extraordinaria en The New Yorker. Tras entrevistar a más de 100 personas implicadas, obtuvieron memorandos internos que no se habían publicado antes, además de más de 200 páginas de notas privadas dejadas por Dario Amodei, fundador de Anthropic, durante su etapa en OpenAI. La historia que se arma con esos documentos es mucho más desagradable que aquella “telenovela palaciega” de 2023: cómo OpenAI pasó, paso a paso, de ser una organización sin fines de lucro creada para la seguridad humana a convertirse en una máquina comercial; casi cada uno de los cercos de seguridad se retiró a mano, por la misma persona.
La conclusión de Amodei en sus notas es más directa aún: “El problema de OpenAI es Sam en persona.”
La configuración del “pecado original” de OpenAI
Para entender el peso de este reportaje, primero hay que dejar claro cuán especial es esta empresa.
En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo con pocos precedentes en la historia empresarial: usar una organización sin fines de lucro para desarrollar una tecnología que podría ser la más poderosa de toda la historia humana. Las responsabilidades del consejo están escritas con total claridad: la seguridad está por encima del éxito de la empresa, e incluso por encima de la supervivencia de la empresa. Dicho sin rodeos: si algún día la IA de OpenAI se vuelve peligrosa, el consejo tiene el deber de cerrar la empresa a mano.
Toda la arquitectura se apoya en una suposición: la persona que controla la AGI debe ser extremadamente honesta.
¿Qué pasa si se equivocan al apostar?
La bomba central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero en 2023, cada vez estaba más seguro de una cosa: Altman le dice mentiras de manera sostenida a directivos y al consejo.
Un ejemplo concreto: en diciembre de 2022, Altman aseguró en una reunión del consejo que varias funciones del GPT-4 que se publicaría ya habían pasado por revisiones de seguridad. El miembro del consejo Toner pidió ver los documentos de aprobación y descubrió que dos de las funciones más controvertidas (ajuste fino personalizado y despliegue del asistente personal) ni siquiera habían recibido aprobación del panel de seguridad.
Lo más alucinante ocurrió en India. Un empleado denunció a otro miembro del consejo sobre “esa infracción”: Microsoft no completó la revisión de seguridad necesaria y, aun así, lanzó de forma anticipada en India una versión temprana de ChatGPT.
Sutskever también registró otra cosa en el memorando: Altman le había dicho al ex CTO Mira Murati que el proceso de aprobación de seguridad no era tan importante; que el consejero legal general de la empresa ya lo había aceptado. Murati corrió a confirmarlo con el consejero legal general, y la respuesta fue: “No sé de dónde saca Sam esa impresión”.
Las notas privadas de 200 páginas de Amodei
El documento de Sutskever es como un escrito de acusación de un fiscal. Las más de 200 páginas de notas de Amodei se parecen más a un diario escrito por un testigo presencial en la escena del crimen.
Durante los años en los que Amodei trabajó en OpenAI como responsable de seguridad, presenció cómo, bajo la presión comercial, la empresa fue retrocediendo paso a paso. En sus notas registró un detalle clave del caso de inversión de Microsoft en 2019: él había incluido en los estatutos de OpenAI una cláusula de “fusión y asistencia”, en el sentido de que, si otra empresa encontrara una ruta de AGI más segura, OpenAI debía dejar de competir y pasar a ayudar a esa empresa. Esa fue la garantía de seguridad que más valoró en toda la transacción.
Cuando la firma de la operación estaba por cerrarse, Amodei descubrió algo: Microsoft había obtenido el derecho de veto sobre esa cláusula. ¿Qué significa esto? Aunque algún día un competidor encontrara un camino mejor, con una sola frase Microsoft podría bloquear la obligación de asistencia de OpenAI. La cláusula seguía en el papel, pero desde el día de la firma ya era papel mojado.
Amodei luego se fue de OpenAI y fundó Anthropic. La competencia entre ambas empresas se basa en una discrepancia fundamental sobre “cómo debería desarrollarse la IA”.
El compromiso de 20% de potencia de cómputo que desapareció
En el reportaje hay un detalle que, al terminar de leerlo, pone los pelos de punta: sobre el “equipo de alineación súper” de OpenAI.
A mediados de 2023, Altman contactó por correo a un estudiante de doctorado en Berkeley que investigaba la “alineación engañosa” (la IA finge ser obediente durante las pruebas, pero luego, al desplegarse, sigue su propio plan). Altman dijo que estaba muy preocupado por este problema y estaba considerando crear un premio global de investigación de mil millones de dólares. El doctorando se sintió muy alentado, se tomó una excedencia y se unió a OpenAI.
Luego, Altman cambió de idea: ya no habría premios externos; dentro de la empresa se crearía un “equipo de alineación súper”. La empresa anunció con bombo y platillo que destinaría el “20% de la potencia de cómputo ya existente” de la compañía a ese equipo; el valor potencial superaría los mil millones de dólares. El lenguaje del anuncio era extremadamente serio: decía que si no se resolvía el problema de alineación, la AGI podría llevar a “la pérdida del poder por parte de la humanidad, e incluso la extinción de la humanidad”.
Jan Leike, quien fue nombrado para dirigir este equipo, luego dijo a los periodistas que el compromiso en sí era una herramienta muy efectiva de “retención de talento”.
¿Y la realidad? Cuatro personas que trabajaban en ese equipo o que estaban en contacto cercano con él dijeron que la potencia de cómputo realmente asignada era solo del 1% al 2% de la potencia total de la empresa, y además con el hardware más antiguo. Ese equipo luego fue disuelto y la misión quedó sin completar.
Cuando los periodistas pidieron entrevistar a personas encargadas de la investigación de “seguridad existencial” en OpenAI, la reacción de relaciones públicas de la empresa fue de risa y llanto: “Eso no es una… cosa que realmente exista”.
Altman, en cambio, fue sereno. Les dijo a los periodistas que su “intuición no encajaba del todo con muchas cosas tradicionales de seguridad de la IA”, y que OpenAI seguiría haciendo “proyectos de seguridad, o al menos proyectos que tengan algo que ver con seguridad”.
El CFO desplazado y el IPO que se avecina
El reportaje de The New Yorker es solo la mitad de las malas noticias de ese día. Al mismo tiempo, The Information reveló otro gran titular: el CFO de OpenAI, Sarah Friar, tuvo una grave discrepancia con Altman.
Friar le dijo en privado a sus colegas que creía que OpenAI todavía no estaba lista para salir a bolsa este año. Dos motivos: la cantidad de trabajo de índole programática y organizativa que había que completar era demasiado grande; el riesgo financiero derivado del gasto de potencia de cómputo de 600 mil millones de dólares en 5 años prometido por Altman era demasiado alto. Incluso no estaba segura de si el crecimiento de ingresos de OpenAI sería capaz de sostener esas promesas.
Pero Altman quiere lanzarse al IPO en el cuarto trimestre de este año.
Lo más alucinante es que Friar ya no le reporta directamente a Altman. Desde agosto de 2025, empezó a reportar a Fidji Simo (CEO de negocios de aplicaciones de OpenAI). Y Simo se tomó una baja médica por razones de salud la semana pasada. Toma nota de la situación: una empresa que impulsa su IPO, con discrepancias fundamentales entre el CEO y el CFO; el CFO no reporta al CEO, y el superior del CFO también se encuentra de licencia.
Incluso altos directivos dentro de Microsoft no pudieron con la situación y dijeron que Altman “tergiversa los hechos, incumple y rompe de manera constante los acuerdos ya alcanzados”. Un directivo de Microsoft incluso dijo algo así: “Siento que hay cierta probabilidad de que al final lo recuerden como un estafador al nivel de Bernie Madoff o SBF”.
El retrato de Altman como “doble cara”
Un ex miembro del consejo de OpenAI describió a los periodistas dos rasgos que tiene Altman. Es posible que esta frase sea el retrato de personajes más duro de todo el reportaje.
Este directivo dijo que Altman tiene una combinación de rasgos sumamente rara: en cada interacción cara a cara, siente un deseo intenso de complacer a la otra persona y que la otra persona lo quiera. Al mismo tiempo, tiene una indiferencia casi psicopática hacia las consecuencias que podría acarrear engañar a otros.
Que ambos rasgos aparezcan en una misma persona es extremadamente raro. Pero para un vendedor, es el talento más perfecto.
En el reportaje hay una analogía bien lograda: Jobs era famoso por su “campo de distorsión de la realidad”; podía hacer que todo el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a los clientes: “Si no compras mi reproductor de MP3, la persona que amas morirá”.
Altman ha dicho algo parecido, sobre la IA.
Un problema de ética de un CEO, por qué es el riesgo de todos
Si Altman fuera solo el CEO de una empresa tecnológica común, estas acusaciones serían, como máximo, un rumor empresarial fascinante. Pero OpenAI no es una empresa común.
Según su propia versión, está desarrollando la tecnología más poderosa de toda la historia humana. Puede remodelar la economía global y el mercado laboral (OpenAI acaba de publicar un libro blanco de políticas sobre el problema de desempleo causado por la IA), pero también puede usarse para fabricar armas biológicas a gran escala o lanzar ataques cibernéticos.
Todos los cercos de seguridad no significan nada ya. La misión sin fines de lucro de los fundadores quedó relegada ante el impulso del IPO. El ex científico jefe y el ex responsable de seguridad concluyeron que el CEO es “no confiable”. Los socios comparan al CEO con SBF. En esta situación, ¿con qué derecho este CEO decide unilateralmente cuándo publicar el modelo de IA que podría cambiar el destino de la humanidad?
Gary Marcus (profesor de IA en la Universidad de Nueva York y defensor de larga data de la seguridad de la IA) escribió una frase después de leer el reportaje: si algún modelo futuro de OpenAI pudiera crear armas biológicas a gran escala o lanzar ataques cibernéticos catastróficos, ¿de verdad te sentirías tranquilo dejando que Altman decida solo si se publica o no?
La respuesta de OpenAI al New Yorker fue concisa: “La mayor parte de este artículo está dando vueltas a eventos ya reportados; mediante acusaciones anónimas y anécdotas seleccionadas, las fuentes claramente tienen un propósito personal”.
Es una forma muy típica de responder de Altman: no responde acusaciones específicas, no niega la autenticidad de los memorandos, solo cuestiona la motivación.
Sobre el cadáver de una organización sin fines de lucro, crece un árbol de dinero
Los diez años de OpenAI, contados como un esquema de historia, serían así:
Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin fines de lucro impulsada por una misión. La organización logra avances técnicos extraordinarios. Los avances atraen grandes cantidades de capital. El capital necesita retornos. La misión empieza a ceder el paso. El equipo de seguridad se disuelve. Las personas que cuestionan son limpiadas. La estructura sin fines de lucro se transforma en una entidad con fines de lucro. Antes, con poder para cerrar la empresa, el consejo de administración ahora está lleno de aliados del CEO. Antes, la empresa prometía destinar 20% de potencia de cómputo para proteger la seguridad humana; ahora, sus profesionales de relaciones públicas dicen que “no es una cosa que exista de manera real”.
El protagonista de la historia—más de cien personas que lo vivieron en primera persona—le dio la misma etiqueta: “No está constreñido por la verdad”.
Ahora está por llevar esta empresa a su IPO, con una valoración superior a 850 mil millones de dólares.
La información de este artículo se compila a partir de reportes públicos de múltiples medios, incluyendo The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider y The Information.