Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Acabo de leer algo que me dejó bastante descolocado. The New Yorker acaba de publicar una investigación masiva donde periodistas como Ronan Farrow obtuvieron documentos internos de OpenAI que revelan un patrón preocupante: aparentemente Sam Altman ha estado mintiendo sistemáticamente a la junta directiva y ejecutivos sobre cuestiones críticas de seguridad.
El punto de partida es brutal. Ilya Sutskever, el científico principal de OpenAI, compiló un documento de 70 páginas hace un par de años basado en mensajes de Slack, comunicaciones de RRHH y actas de reuniones. Su conclusión en la primera línea: Sam muestra un patrón consistente de mentir. Un ejemplo concreto que aparece en la investigación: en diciembre de 2022, Altman le garantizó a la junta que varias funciones de GPT-4 habían pasado revisión de seguridad. Cuando pidieron ver los documentos de aprobación, descubrieron que dos de las características más controvertidas nunca fueron revisadas por el panel de seguridad.
Pero lo que realmente me llamó la atención fue lo que encontraron en las notas personales de Dario Amodei, fundador de Anthropic y ex responsable de seguridad en OpenAI. Más de 200 páginas donde documenta cómo la empresa fue retrocediendo paso a paso bajo presión comercial. Un detalle clave: cuando Microsoft invirtió en 2019, negoció una cláusula de 'fusión y asistencia' que supuestamente garantizaba que si otro competidor encontraba una ruta más segura hacia AGI, OpenAI debería ayudar. Suena bien en papel. El problema es que Microsoft también obtuvo derecho de veto sobre esa misma cláusula, lo que la convirtió en promesa vacía desde el día de la firma.
Hay algo que suena casi absurdo pero es completamente real: el equipo de 'superalineación' de OpenAI. Altman anunció públicamente que dedicarían el 20% de la capacidad de cómputo existente a investigar alineación de IA, con un valor potencial superior a mil millones de dólares. Fue un anuncio serio, mencionando riesgos de extinción humana y todo eso. Pero cuando los periodistas hablaron con cuatro personas que trabajaron en ese equipo, la realidad era diferente: la potencia de cómputo asignada era solo entre 1% y 2% del total, además era hardware antiguo. El equipo fue disuelto sin completar su misión.
Mientras esto pasaba, la CFO de OpenAI, Sarah Friar, tenía serias diferencias con Altman sobre una posible IPO. Friar cree que la empresa no está lista para salir a bolsa este año, considerando la cantidad de trabajo pendiente y los riesgos financieros del compromiso de Altman de gastar 600 mil millones en capacidad de cómputo en cinco años. Pero aquí está lo extraño: Friar ya no reporta directamente a Altman, ahora reporta a Fidji Simo, quien acaba de tomarse licencia por salud. Una empresa preparándose para IPO con esas dinámicas internas es, bueno, complicada.
Un exmiembro de la junta describió a Altman con dos características simultáneas: un deseo genuino de agradar en cada interacción cara a cara, pero al mismo tiempo una indiferencia casi sociopática ante las consecuencias de engañar a otros. Esa combinación, según el reporte, es rara en las personas pero perfecta para un vendedor.
Lo que me preocupa es que esto no es solo chisme corporativo. OpenAI está desarrollando lo que ellos mismos describen como posiblemente la tecnología más poderosa de la historia humana. Tecnología que podría reconfigurar la economía, crear armas bioquímicas a escala, o llevar a cabo ataques cibernéticos. Y los salvaguardas de seguridad que supuestamente protegían contra estos riesgos han sido desmantelados. El ex científico principal y el ex responsable de seguridad consideran al CEO poco confiable. Los ejecutivos de Microsoft lo comparan con SBF.
La respuesta de OpenAI a The New Yorker fue minimizadora: dijeron que el artículo reitera eventos ya reportados usando afirmaciones anónimas. Altman no respondió a las acusaciones específicas, solo cuestionó los motivos de las fuentes.
Diez años de OpenAI resumidos: un grupo de idealistas crea una organización sin fines de lucro para proteger la humanidad de riesgos de IA. Logran avances extraordinarios. El capital llega masivo. La misión comienza a ceder. El equipo de seguridad se disuelve. Los críticos desaparecen. La estructura sin fines de lucro se transforma en entidad con fines de lucro. El consejo que tenía poder para cerrar la empresa ahora está lleno de aliados del CEO. La empresa que prometía dedicar el 20% de su potencia para proteger la seguridad humana ahora tiene voceros diciendo que la investigación sobre seguridad existencial 'no es algo que realmente exista'.
Y el protagonista de esta historia está a punto de llevar a OpenAI a IPO con una valoración superior a 850 mil millones de dólares. Ciento de testigos presenciales le dieron la misma etiqueta: no está sujeto a la verdad.