Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Acabo de leer una investigación que salió ayer en The New Yorker que dejó a mucha gente en shock. Ronan Farrow y Andrew Marantz entrevistaron a más de 100 personas, consiguieron memorandos internos nunca divulgados y hasta más de 200 páginas de notas personales de Dario Amodei (fundador de Anthropic, que salió de OpenAI). El resultado es básicamente una bomba.
Todo empieza con un documento de 70 páginas que Ilya Sutskever, el científico jefe de OpenAI, compiló en otoño de 2023. Reunió mensajes de Slack, comunicaciones con Recursos Humanos, actas de reuniones. ¿Objetivo? Responder a una pregunta sencilla: ¿Se puede confiar en Sam Altman, que controla posiblemente la tecnología más peligrosa de la historia? La respuesta de Sutskever en la primera línea: Sam demuestra un patrón consistente de... mentiras.
Los ejemplos son bastante específicos. En diciembre de 2022, Altman aseguró al consejo que las funcionalidades de GPT-4 ya habían pasado por revisión de seguridad. Cuando pidieron los documentos de aprobación, descubrieron que dos de las más controvertidas (ajuste personalizado y despliegue de asistente personal) nunca fueron aprobadas. Luego estuvo el caso de India, donde Microsoft lanzó ChatGPT antes de que terminara la revisión de seguridad. Sutskever también anotó que Altman habría dicho a la CTO Mira Murati que el proceso de seguridad no era tan importante porque el asesor legal ya lo había aprobado. ¿Cuándo consultó Murati con el asesor legal? Él respondió: "No tengo idea de dónde sacó eso Sam".
Pero lo más frío es sobre el equipo de "superalineamiento". A mediados de 2023, Altman contactó a un estudiante de Berkeley investigando alineamiento de IA, muy preocupado por el problema, hablando de un premio de investigación de 1 mil millones de dólares. El tipo salió de la universidad, entró en OpenAI. Luego Altman cambió de idea: creó un equipo interno en lugar de premios, y anunció públicamente que dedicaría el 20% de la capacidad de computación de la empresa (potencial de más de 1 mil millones). Lenguaje extremadamente serio, hablando de "extinción humana" si el alineamiento no se resolvía.
¿Y en realidad? Cuatro personas que trabajaron allí dicen que solo se asignó entre 1 y 2% de la capacidad total, con hardware antiguo. El equipo fue desmantelado sin completar nada. Cuando periodistas pidieron entrevistar a responsables de la investigación de "seguridad existencial", la respuesta del departamento de prensa fue: "Eso no es algo que realmente exista".
Y hay más. Sarah Friar, CFO de OpenAI, discutió seriamente con Altman sobre la IPO. Ella cree que aún no está listo: hay mucha burocracia pendiente y el riesgo de la promesa de Altman de gastar 600 mil millones en capacidad de computación es muy alto. Pero Altman quiere acelerar para el cuarto trimestre de este año. ¿Lo absurdo? Friar ya no reporta directamente a Altman. Desde agosto de 2025, reporta a Fidji Simo, CEO de negocios de apps. Y Simo está de licencia médica desde la semana pasada.
Un exmiembro del consejo describió a Altman así: tiene un deseo extremo de agradar en interacciones cara a cara, pero al mismo tiempo una indiferencia casi sociopática por las consecuencias de engañar. Rara vez se combina así. Pero para un vendedor, ¿es el don perfecto? Incluso los ejecutivos de Microsoft ya no aguantan, diciendo que Altman "distorsionó hechos, rompió promesas y revocó acuerdos constantemente". Uno llegó a compararlo con Bernie Madoff o SBF.
¿Y por qué esto importa tanto? Porque OpenAI no es una empresa tecnológica normal. Está desarrollando tecnología capaz de reestructurar la economía global, crear armas bioquímicas a escala o lanzar ataques cibernéticos. Todos los mecanismos de seguridad son básicamente formales ahora. La misión sin fines de lucro se convirtió en una carrera hacia la IPO. El excientífico jefe considera a Altman como poco confiable. La responsable de seguridad salió y fundó Anthropic por divergencias fundamentales sobre cómo debería desarrollarse la IA.
Gary Marcus, profesor de IA en NYU, escribió después: si un futuro modelo de OpenAI logra crear armas bioquímicas o ataques cibernéticos catastróficos, ¿realmente te sientes seguro dejando que Altman decida solo si libera o no?
¿La respuesta de OpenAI? Básicamente ignoró las acusaciones específicas, no negó los memorandos, solo cuestionó los motivos de las fuentes. Altman no respondió directamente.
Década de OpenAI en un párrafo: grupo de idealistas crea ONG preocupada por los riesgos de la IA, logra avances notables, atrae capital masivo, el capital exige retorno, la misión cede espacio, equipo de seguridad desmantelado, disidentes expulsados, estructura sin fines de lucro se vuelve entidad lucrativa, consejo que podía cerrar la empresa ahora está lleno de aliados del CEO. Más de cien testigos usaron la misma etiqueta para el protagonista: "no está restringido por la verdad". Y ahora va hacia la IPO con una valoración superior a 850 mil millones.