Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
De qué trata realmente la saga de seguridad de la IA de Anthropic
¿De qué trata realmente la saga de seguridad de la IA de Anthropic?
Análisis de Lisa Eadicicco, David Goldman, CNN
Jue, 26 de febrero de 2026 a las 10:48 p. m. GMT+9 5 min de lectura
Cofundador y CEO de Anthropic, Dario Amodei. - Chance Yeh/Getty Images
Anthropic ha llegado a una encrucijada familiar para una empresa tecnológica en crecimiento: cómo escalar sin comprometer los principios que la distinguen.
La empresa de IA ha convertido la seguridad en su principio rector. Abogó por la regulación de la IA y pidió protecciones para los trabajadores a medida que la IA reemplaza algunas tareas humanas. Anthropic ha trabajado arduamente para enviar un mensaje específico a los clientes: Somos los buenos.
Sin embargo, las barreras de protección que la propia empresa se impuso para construir esa marca ahora pueden estar convirtiéndose en obstáculos para su éxito.
Esta semana, el Pentágono le dio a Anthropic un ultimátum: Elimina tus restricciones éticas para la IA o pierde tu contrato de 200 millones de dólares y enfréntate a una lista negra. Por separado, también esta semana, Anthropic aflojó su política central de seguridad para permitirle a la empresa más libertad para crecer en un mercado competitivo y de ritmo acelerado.
No está claro cómo se desarrollará esta semana para el negocio y la reputación de Anthropic, pero sus decisiones serán determinantes.
Sabemos que, porque el dilema de Anthropic es uno conocido en la industria tecnológica. Muchas empresas pregonan sus valores y su moralidad, solo para enfrentarse a decisiones difíciles que las obligan a elegir entre el crecimiento y mantener esos ideales.
Anthropic quizá quiera tomar nota.
OpenAI y el fin de semana de Sam
Sam Altman, CEO de OpenAI. - Andrew Harnik/Getty Images
Hace poco más de dos años, el rival más grande de Anthropic luchó con el disenso por el crecimiento a costa de la seguridad.
En una de las tramas más extrañas de dramas de sala de juntas en la historia corporativa, el principal rival de Anthropic, OpenAI, despidió de forma abrupta a su fundador y CEO, Sam Altman, un viernes de noviembre de 2023, solo para readmitirlo el martes siguiente.
La saga implicó una estructura corporativa única que colocaba a la empresa privada y de rápido crecimiento detrás de ChatGPT bajo los auspicios de una junta sin fines de lucro. Cuatro años antes, la compañía había escrito en su estatuto que OpenAI permanecía “preocupada” por el potencial de la IA de “provocar un cambio rápido” para la humanidad. Los responsables de supervisar la empresa temían que Altman fuera tan rápido que arriesgaba socavar la seguridad que la compañía se comprometió a proporcionar.
Pero despedir a Altman llevó a amenazas de una salida masiva de empleados, una situación insostenible que podría haber llevado a la destrucción de la compañía. Así que la junta readmitió a Altman apenas días después. La junta se disolvió poco después y Altman cambió la estructura corporativa el año pasado para liberarse de su supervisor sin fines de lucro.
Desde entonces, OpenAI ha tenido dificultades para equilibrar velocidad y seguridad, enfrentando varias demandas que afirman que sus productos convencieron a jóvenes de hacerse daño. OpenAI niega esas acusaciones.
Apple y el tirador de San Bernardino
CEO de Apple, Tim Cook. - Godofredo A. Vásquez/AP
Syed Farook y su esposa, Tashfeen Malik, asesinaron a 14 personas en el Inland Regional Center en San Bernardino, California, en diciembre de 2015. La pareja murió más tarde en un tiroteo con la policía.
Los investigadores obtuvieron permiso para recuperar datos del iPhone de Farook, pero no pudieron acceder porque estaba bloqueado con un código de acceso. Un juez de California ordenó a Apple ayudar a los agentes encargados de hacer cumplir la ley a acceder al teléfono.
Pero en una carta abierta, firmada por el CEO de Apple, Tim Cook, la empresa se negó. Cook dijo que la orden del juez abriría “una puerta trasera para el iPhone”, algo que “consideramos demasiado peligroso como para crear”. La empresa dijo que no tenía simpatía por los terroristas, pero cumplir con la orden le daría a las autoridades gubernamentales “poder de llegar al dispositivo de cualquier persona para capturar sus datos”.
Apple recibió una enorme andanada de críticas por su decisión, incluida de entonces el candidato presidencial Donald Trump. Pero desde entonces ha acumulado elogios generalizados por defender la privacidad de sus clientes, algo que desde entonces se ha vuelto sinónimo de la marca de la empresa.
La empresa ahora promociona de manera rutinaria que no venderá los datos de los clientes ni almacenará cierta información personal en sus servidores, intentando diferenciarse de Google, uno de sus principales competidores.
Etsy vs. vendedores en solitario
La sede de Etsy en Nueva York. - Michael M. Santiago/Getty Images
Cuando el imperio de comercio electrónico de Amazon apenas comenzaba a despegar a principios de la década de 2000, Etsy surgió como una alternativa novedosa donde los compradores podían encontrar productos artesanales únicos.
Pero en 2013 hizo un cambio controvertido que amenazó con poner en riesgo ese espíritu. Amplió su política para permitir que los vendedores usaran fabricantes y subcontrataran operaciones, lo que generó preocupaciones en ese momento de que ya no proporcionaría un campo de juego justo para pequeños vendedores independientes que no tenían recursos para contratar personal.
Aun así, esa decisión fue fundamental para que Etsy se expandiera hasta el mercado en el que está hoy, que ahora ofrece más de 100 millones de artículos a la venta y aproximadamente 8 millones de vendedores activos.
“Desde el punto de vista de negocio, le salió bien a Etsy, pero fue un momento difícil para la empresa”, dijo Arun Sundararajan, director del Centro Fubon para Tecnología, Negocio e Innovación de la NYU Stern.
Qué sigue para Anthropic
La app de IA de Anthropic, Claude. - Michael M. Santiago/Getty Images
Estos estudios de caso ofrecen una hoja de ruta preventiva para Anthropic.
Ahora, la consecuencia más importante e inmediata para Anthropic probablemente sea cómo los clientes y los posibles clientes valoran y confían en la empresa, dijo Owen Daniels, subdirector de análisis del Center for Security and Emerging Technology de Georgetown.
Anthropic dijo que sus medidas de seguridad impuestas por sí misma siempre fueron pensadas para ser flexibles y estar sujetas a cambios a medida que evoluciona la IA. Se comprometió a ser transparente sobre la seguridad en el futuro y dijo que realmente no tenía otra opción: si dejaba de crecer, los rivales que no valoran tanto la seguridad podrían avanzar y hacer que la IA sea “en general menos segura”.
No está claro qué sucederá con el cambio de Anthropic, porque los riesgos existenciales de la IA todavía son en gran medida “conceptuales”, señaló Sundararajan.
Dijo que sería escéptico ante cualquier experto que llamara a esto un momento importante en la seguridad de la IA. Pero podría ser un momento importante para la empresa.
“Retirarse de una promesa de seguridad en particular aquí por parte de Anthropic, para mí, tiene más que ver con Anthropic y menos con el futuro de la IA”, dijo.
Para más noticias y boletines de CNN crea una cuenta en CNN.com
Términos y Política de Privacidad
Panel de Privacidad
Más información