Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Los investigadores de IA están dando la alarma al salir por la puerta
Los investigadores de IA advierten en su salida
Análisis de Allison Morrow, CNN
Mié, 18 de febrero de 2026 a las 10:21 PM GMT+9 5 min de lectura
Varios empleados destacados en IA han decidido renunciar, con algunos advirtiendo explícitamente que las empresas para las que trabajaban están avanzando demasiado rápido y minimizando las deficiencias de la tecnología. - d3sign/Moment RF/Getty Images
_Una versión de esta historia apareció en el boletín Nightcap de CNN Business. Para recibirlo en tu bandeja de entrada, suscríbete gratis _aquí.
“El mundo está en peligro,” advirtió el exjefe del equipo de Investigaciones de Salvaguardas de Anthropic mientras se marchaba. Un investigador de OpenAI, también en proceso de salida, dijo que la tecnología tiene “un potencial para manipular a los usuarios de formas que no tenemos las herramientas para entender, mucho menos prevenir.”
Forman parte de una ola de investigadores y ejecutivos de inteligencia artificial que no solo dejan sus empleadores — sino que también suenan la alarma en su camino fuera, llamando la atención sobre lo que ven como señales de advertencia en rojo.
Aunque Silicon Valley es conocido por su alta rotación, la última ola de cambios llega mientras líderes del mercado como OpenAI y Anthropic compiten por salidas a bolsa que podrían acelerar su crecimiento y también invitar a un escrutinio intenso de sus operaciones.
En los últimos días, varios empleados destacados en IA han decidido renunciar, con algunos advirtiendo explícitamente que las empresas en las que trabajaban están avanzando demasiado rápido y minimizando las deficiencias de la tecnología.
Zoë Hitzig, investigadora de OpenAI durante los últimos dos años, anunció su renuncia el miércoles en un ensayo en el New York Times, citando “profundas reservas” sobre la estrategia publicitaria emergente de OpenAI. Hitzig, quien advirtió sobre el potencial de ChatGPT para manipular a los usuarios, dijo que el archivo de datos de usuarios del chatbot, construido sobre “miedos médicos, sus problemas de relación, sus creencias sobre Dios y la vida después de la muerte,” presenta un dilema ético precisamente porque las personas creían que estaban charlando con un programa que no tenía motivos ocultos.
La crítica de Hitzig llega mientras el sitio de noticias tecnológicas Platformer informa que OpenAI disolvió su equipo de “alineación de misión,” creado en 2024 para promover el objetivo de la empresa de garantizar que toda la humanidad se beneficie de la búsqueda de una “inteligencia artificial general” — una IA hipotética capaz de pensamiento a nivel humano.
OpenAI no respondió de inmediato a una solicitud de comentario.
El jefe del equipo de Investigaciones de Salvaguardas de Anthropic dijo que “a lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen realmente nuestras acciones.” - Gabby Jones/Bloomberg/Getty Images
También esta semana, Mrinank Sharma, jefe del equipo de Investigaciones de Salvaguardas de Anthropic, publicó una carta críptica el martes anunciando su decisión de dejar la empresa y advirtiendo que “el mundo está en peligro.”
La carta de Sharma hizo solo referencias vagas a Anthropic, la empresa detrás del chatbot Claude. No dijo por qué se iba, pero señaló que “está claro para mí que ha llegado el momento de seguir adelante” y que “a lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen realmente nuestras acciones.”
Anthropic dijo a CNN en un comunicado que estaba agradecida por el trabajo de Sharma en el avance de la investigación en seguridad de IA. La empresa señaló que él no era el jefe de seguridad ni estaba a cargo de salvaguardas más amplias en la compañía.
Mientras tanto, en xAI, dos cofundadores renunciaron en un período de 24 horas esta semana, anunciando sus salidas en X. Eso deja solo a la mitad de los fundadores de xAI en la firma, que se está fusionando con SpaceX de Elon Musk para crear la empresa privada más valiosa del mundo. Al menos cinco otros empleados de xAI han anunciado sus salidas en redes sociales en la última semana.
No quedó claro de inmediato por qué los últimos cofundadores de xAI se fueron, y xAI no respondió a una solicitud de comentario. En una publicación en redes sociales el miércoles, Musk dijo que xAI fue “reorganizada” para acelerar el crecimiento, lo que “lamentablemente requirió despedir a algunas personas.”
Aunque no es inusual que talentos de alto nivel se muevan en una industria emergente como la IA, la escala de las salidas en tan poco tiempo en xAI destaca.
La startup ha enfrentado una reacción global negativa por su chatbot Grok, que estuvo generando imágenes pornográficas no consensuadas de mujeres y niños durante semanas antes de que el equipo interviniera para detenerlo. Grok también ha sido propenso a generar comentarios antisemitas en respuesta a las solicitudes de los usuarios.
Otras salidas recientes subrayan la tensión entre algunos investigadores preocupados por la seguridad y los altos ejecutivos ansiosos por generar ingresos.
El martes, The Wall Street Journal informó que OpenAI despidió a uno de sus principales ejecutivos de seguridad después de que ella expresara oposición al lanzamiento de un “modo adulto” que permite contenido pornográfico en ChatGPT. OpenAI despidió a la ejecutiva de seguridad, Ryan Beiermeister, por discriminación contra un empleado masculino — una acusación que Beiermeister dijo al Journal que era “totalmente falsa.”
Una investigadora de OpenAI anunció su renuncia el miércoles, citando “profundas reservas” sobre la estrategia publicitaria emergente de OpenAI. - Jaap Arriens/NurPhoto/Shutterstock
OpenAI dijo al Journal que su despido no estaba relacionado con “ningún problema que ella haya planteado mientras trabajaba en la empresa.”
Las deserciones de alto nivel han sido parte de la historia de la IA desde que ChatGPT salió al mercado a finales de 2022. Poco después, Geoffrey Hinton, conocido como el “Padrino de la IA,” dejó su puesto en Google y comenzó a evangelizar sobre los riesgos existenciales que la IA presenta, incluyendo una gran upheaval económica en un mundo donde muchos “ya no podrán saber qué es verdad.”
Predicciones apocalípticas abundan, incluso entre ejecutivos de IA que tienen un incentivo financiero para exagerar el poder de sus propios productos. Una de esas predicciones se volvió viral esta semana, con el CEO de HyperWrite, Matt Shumer, publicando un manifiesto de casi 5,000 palabras sobre cómo los modelos de IA más recientes ya han hecho obsoletas algunas tareas tecnológicas.
“Les estamos diciendo lo que ya ocurrió en nuestros propios trabajos,” escribió, “y advirtiéndoles que ustedes serán los siguientes.”
Para más noticias y boletines de CNN, crea una cuenta en CNN.com
Términos y Política de Privacidad
Panel de Privacidad
Más información