Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
«The New Yorker» investigación en profundidad: ¿Por qué los insiders de OpenAI consideran que Altman no es confiable?
Escrito por: Little Pie, Deep Tide TechFlow
En el otoño de 2023, el científico jefe de OpenAI Ilya Sutskever se sentó frente a la computadora y completó un documento de 70 páginas.
Ese documento fue recopilado a partir de registros de mensajes de Slack, archivos de comunicación de RR. HH. y actas de reuniones internas; solo para responder una pregunta: Sam Altman, el hombre que gestiona quizá la tecnología más peligrosa de toda la historia de la humanidad, ¿realmente puede ser confiado?
La respuesta que dio Sutskever, escrita en la primera página, en la primera línea; el título de la lista es: “Sam muestra un patrón de conducta consistente…”.
Primera: mentir.
Hoy, dos años y medio después, el periodista de investigación Ronan Farrow y Andrew Marantz publicaron un reportaje de investigación larguísimo en The New Yorker. Entrevistaron a más de 100 personas involucradas, obtuvieron memorandos internos que antes nunca se habían hecho públicos y también notas privadas de más de 200 páginas que Dario Amodei, fundador de Anthropic, dejó durante su etapa en OpenAI. La historia que arman con esos documentos es mucho más desagradable que aquella “escena de intrigas” de 2023: cómo OpenAI, paso a paso, pasó de ser una organización sin fines de lucro creada para la seguridad de la humanidad a convertirse en una máquina comercial; casi cada una de las barreras de seguridad, fue desmantelada a mano por la misma persona.
La conclusión de Amodei en sus notas es todavía más directa: “El problema de OpenAI es Sam, el propio Sam”.
El “pecado original” de OpenAI
Para entender el peso de este reportaje, primero hay que aclarar qué tan especial es esta empresa.
En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo que casi no tiene precedentes en la historia empresarial: desarrollar la que podría ser la tecnología más fuerte de toda la historia de la humanidad utilizando una organización sin fines de lucro. Las responsabilidades del consejo quedaron redactadas con claridad: la seguridad por delante del éxito de la empresa, e incluso por delante de la supervivencia de la empresa. Dicho en simple: si un día el AI de OpenAI se vuelve peligroso, el consejo tiene la obligación de cerrar la empresa por su cuenta, con sus propias manos.
Toda la arquitectura está puesta sobre una suposición: la persona que gobierna la AGI tiene que ser extremadamente honesta.
¿Y si se apuesta mal?
El detonante central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero en 2023, cada vez estaba más convencido de una cosa: Altman, de manera continua, les está diciendo mentiras a los ejecutivos y al consejo.
Un ejemplo concreto: en diciembre de 2022, Altman garantizó en una reunión del consejo que varias funciones del GPT-4, que se lanzará próximamente, ya habían pasado revisiones de seguridad. El miembro del consejo Toner pidió ver los documentos de aprobación, y descubrió que dos de las funciones más controvertidas (el ajuste fino de personalización del usuario y el despliegue de un asistente personal) en realidad ni siquiera habían recibido aprobación del panel de seguridad.
Lo más insólito ocurrió en India. Un empleado denunció ante otro miembro del consejo “esa infracción”: Microsoft no completó las revisiones de seguridad necesarias y aun así publicó con antelación una versión inicial de ChatGPT en India.
Sutskever también registró en el memorando otra cosa: Altman le dijo a la ex CTO Mira Murati que el proceso de aprobación de seguridad no era tan importante; que el asesor legal general de la empresa ya lo había reconocido. Murati fue a confirmarlo con el asesor legal general, y este respondió: “No sé de dónde Sam sacó esa impresión”.
Las notas privadas de 200 páginas de Amodei
Los documentos de Sutskever se parecen a un escrito de acusación de un fiscal. Las notas privadas de más de 200 páginas que dejó Amodei se asemejan más a un diario escrito por un testigo presencial en el lugar del crimen.
En los años en que Amodei estuvo a cargo de la seguridad en OpenAI, vio con sus propios ojos cómo la empresa fue retrocediendo paso a paso bajo presión comercial. En sus notas anotó un detalle clave del caso de inversión de Microsoft en 2019: él había insertado en los estatutos de OpenAI una cláusula de “fusión y asistencia”, que venía a decir que, si otra empresa encontraba una ruta de AGI más segura, OpenAI debía detener la competencia y, en su lugar, ayudar a esa empresa. Esa era la garantía de seguridad que más valoraba en toda la operación.
Cuando el acuerdo estaba por firmarse, Amodei descubrió algo: Microsoft obtuvo el derecho de veto sobre esa cláusula. ¿Qué significa? Aunque un día algún competidor encontrara una ruta mejor, Microsoft podía, con una sola frase, bloquear la obligación de OpenAI de brindar asistencia. La cláusula seguía en el papel, pero desde el día en que se firmó quedó en papel mojado.
Amodei se fue después de OpenAI y fundó Anthropic. La competencia entre ambas compañías, en la raíz, se basa en una discrepancia fundamental sobre “cómo debe desarrollarse la IA”.
El compromiso de 20% de capacidad de cómputo que desapareció
En el reportaje hay un detalle que al terminar de leer hace que a uno se le erice la piel, sobre el “equipo de superalineamiento” de OpenAI.
A mediados de 2023, Altman se puso en contacto por correo con un doctorando en Berkeley que investigaba el “alineamiento engañoso” (la IA finge ser obediente durante las pruebas y luego se sale con la suya después de desplegarse). Dijo que le preocupaba muchísimo ese problema y que estaba considerando crear un premio global de investigación de 1000 millones de dólares. El doctorando se sintió muy animado, se tomó una excedencia en sus estudios y se unió a OpenAI.
Entonces Altman cambió de idea: no habría premios externos, y dentro de la empresa se crearía un “equipo de superalineamiento”. La empresa anunció con bombo y platillo que asignaría a ese equipo el “20% de la capacidad de cómputo que ya existe”; su valor potencial superaría los 1000 millones de dólares. Las palabras del anuncio eran extremadamente serias: si no se resolvía el problema de alineamiento, la AGI podría llevar a “la privación del poder por parte de los humanos, e incluso la extinción humana”.
Jan Leike, que fue nombrado para liderar ese equipo, luego le dijo a un periodista que el compromiso en sí mismo era una herramienta muy efectiva de “retención de talento”.
¿Y la realidad? Cuatro personas que trabajaban en ese equipo o que tenían un contacto muy estrecho con él dijeron que, en la práctica, la capacidad de cómputo asignada era solo del 1% al 2% de la capacidad total de la empresa, y además se trataba de hardware de lo más antiguo. Más tarde, el equipo se disolvió y la misión no se completó.
Cuando el periodista pidió entrevistar a personas encargadas de la investigación de “seguridad existencial” en OpenAI, la reacción de relaciones públicas de la empresa fue para llorar y reír a la vez: “Eso no es una… cosa que exista realmente”.
El CFO desplazado y el IPO que se aproxima
El reportaje de The New Yorker es solo la mitad de las malas noticias de ese día. Al mismo tiempo, The Information reveló otra noticia importante: entre el CFO de OpenAI, Sarah Friar, y Altman hubo una seria discrepancia.
Friar les dijo en privado a sus colegas que creía que OpenAI todavía no estaba preparada para salir a bolsa este año. Dos razones: la cantidad de trabajo procesal y organizativo por hacer era demasiado grande, y el riesgo financiero que implicaban los gastos de capacidad de cómputo prometidos por Altman de 5 años y 600 mil millones de dólares era demasiado alto. Incluso no estaba segura de si el crecimiento de ingresos de OpenAI podría sostener esas promesas.
Pero Altman quería acelerar el IPO en el cuarto trimestre de este año.
Lo más increíble es que Friar ya no reportaba directamente a Altman. Desde agosto de 2025, cambió para reportar a Fidji Simo (CEO de la división de negocios de aplicaciones de OpenAI). Y Simo la semana pasada tomó una baja por enfermedad por motivos de salud. Tú juzga la situación: una empresa que está en plena carrera por el IPO, con una discrepancia fundamental entre el CEO y el CFO; el CFO no le reporta al CEO, y el superior del CFO también está de baja.
Incluso ejecutivos dentro de Microsoft no pudieron aguantar más y dijeron que Altman “distorsiona los hechos, cambia de posición y sigue echando atrás acuerdos que ya se habían alcanzado”. Un alto ejecutivo de Microsoft llegó incluso a decir algo así: “Creo que existe cierta probabilidad de que al final lo recuerden como un estafador del nivel de Bernie Madoff o SBF”.
El retrato de Altman como “doble cara”
Un ex miembro del consejo de OpenAI describió a los periodistas dos rasgos que presenta Altman. Esta parte podría ser el boceto de personaje más duro de todo el reportaje.
Ese consejero dijo que Altman tiene una combinación de rasgos extremadamente rara: en cada conversación cara a cara, siente un deseo muy intenso de complacer a la otra persona y de que la otra persona lo aprecie. Al mismo tiempo, ante las posibles consecuencias de engañar a otros, tiene un desinterés casi psicopático.
Que dos rasgos coexistan en una sola persona es extraordinariamente raro. Pero para un vendedor, es el talento más perfecto.
El reportaje incluye una buena metáfora: Jobs era famoso por su “campo de distorsión de la realidad”; podía hacer que todo el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a los clientes: “Si no compras mi reproductor de MP3, la persona a la que amas morirá”.
Altman dijo frases similares, sobre la IA.
Un problema de integridad de un CEO: por qué es un riesgo de todos
Si Altman solo fuera el CEO de una empresa tecnológica ordinaria, estas acusaciones serían, como mucho, un rumor comercial interesante. Pero OpenAI no es una empresa común.
Según su propio planteamiento, está desarrollando la que podría ser la tecnología más poderosa de toda la historia humana. Puede remodelar la economía global y el mercado laboral (OpenAI acaba de publicar un policy paper sobre el problema del desempleo causado por la IA), y también puede usarse para fabricar armas biológicas a gran escala o para lanzar ataques cibernéticos.
Las barreras de seguridad no son más que papel mojado. La misión sin fines de lucro de los fundadores cedió el paso a la carrera por el IPO. Tanto el ex científico jefe como el ex responsable de seguridad concluyeron que el CEO es “no confiable”. Los socios comparan al CEO con SBF. En este contexto, ¿en virtud de qué derecho este CEO decide unilateralmente cuándo lanzar un modelo de IA que podría cambiar el destino de la humanidad?
Gary Marcus (profesor de IA de la Universidad de Nueva York y defensor de la seguridad en IA a largo plazo) escribió una sola frase después de leer el reportaje: si algún futuro modelo de OpenAI pudiera fabricar armas biológicas a gran escala o lanzar ataques cibernéticos catastróficos, ¿de verdad te sentirías tranquilo dejando que Altman, una sola persona, decida si se publica o no?
La respuesta de OpenAI al New Yorker, en cambio, fue concisa: “La mayor parte de este artículo se dedica a reavivar hechos que ya se habían reportado, y mediante afirmaciones anónimas y anécdotas seleccionadas, las fuentes claramente tienen motivos personales”.
Una manera “muy al estilo Altman” de responder: no responde acusaciones específicas, no niega la autenticidad del memorando, solo cuestiona la motivación.
En el cadáver de una organización sin fines de lucro, crece un árbol que da dinero
La década de OpenAI, escrita como un esquema de historia, sería así:
Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin fines de lucro impulsada por una misión. La organización logra avances tecnológicos extraordinarios. Los avances atraen grandes cantidades de capital. El capital necesita retorno. La misión empieza a ceder terreno. El equipo de seguridad se disuelve. Los críticos son limpiados. La estructura sin fines de lucro se transforma en una entidad con fines de lucro. El consejo de administración que antes tenía poder para cerrar la empresa ahora está lleno de aliados del CEO. La empresa que antes prometió aportar 20% de la capacidad de cómputo para proteger la seguridad de la humanidad, ahora, según los publicistas, dice que “eso no es una cosa que exista realmente”.
El protagonista de la historia: más de 100 personas que lo vivieron en primera persona le dieron la misma etiqueta: “No está constreñido por la verdad”.
Se está preparando para llevar esta empresa a un IPO, con una valoración superior a 8500 millones de dólares.
La información de este artículo se compila a partir de reportes públicos de varios medios, como The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, etc.
REFERENCIA DE DISEÑO (fuente): total_lines=107, non_empty_lines=54, blank_lines=53