Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Ampliación de la autoridad autónoma de la IA, Anthropic presenta el modo automático para Claude Code
Anthropic está otorgando a sus herramientas de programación de IA mayor autonomía, mientras busca equilibrar eficiencia y seguridad.
El 24 de marzo, Anthropic anunció el lanzamiento del “modo automático” (auto mode) para Claude Code, que permite a la IA decidir por sí misma qué operaciones pueden ejecutarse directamente, sin necesidad de esperar la confirmación individual del usuario.
Actualmente, esta función está disponible en versión de vista previa de investigación para usuarios de planes en equipo, y en los próximos días se ampliará a la versión empresarial y a los usuarios de API.
El núcleo de esta nueva función es un mecanismo de seguridad incorporado, donde cada operación antes de ejecutarse pasa por una capa de seguridad de IA. El sistema autoriza automáticamente las operaciones consideradas seguras y bloquea aquellas que presentan riesgos.
Anthropic afirma que esta capa de seguridad también puede detectar ataques de inyección de indicaciones, es decir, instrucciones maliciosas ocultas en el contenido que la IA está procesando, con la intención de inducir a la modelo a realizar acciones no previstas.
La compañía recomienda a los usuarios utilizar esta nueva función en un entorno de sandbox aislado, para evitar que los riesgos potenciales se propaguen a los sistemas de producción.
Iteración de productos impulsada por los puntos débiles de los desarrolladores
Para los desarrolladores que actualmente usan herramientas de programación de IA, un problema común es tener que supervisar cada paso de la IA o, por el contrario, dejar que la modelo opere de forma autónoma, asumiendo riesgos impredecibles.
El modo automático de Anthropic es en esencia una extensión y mejora del comando existente en Claude Code “ya no solicitar confirmación al usuario” (dangerously-skip-permissions).
Este comando originalmente entregaba toda la toma de decisiones a la IA, mientras que el nuevo modo añade una capa adicional de filtrado de seguridad.
Al permitir que la IA, en lugar del usuario, decida cuándo solicitar permisos, Anthropic intenta ofrecer una mayor seguridad sin sacrificar la eficiencia en la ejecución.
Empresas como GitHub y OpenAI ya han lanzado herramientas de programación autónoma que pueden realizar tareas en lugar de los desarrolladores. La iniciativa de Anthropic avanza en esta dirección, transfiriendo la decisión de permisos del usuario a la propia IA.
El lanzamiento del modo automático sigue a una serie de actualizaciones recientes de productos de Anthropic, incluyendo Claude Code Review, que captura automáticamente defectos antes de fusionar código, y Dispatch for Cowork, que permite a los usuarios delegar tareas a agentes de IA.
Esta serie de movimientos muestra que Anthropic está construyendo sistemáticamente un portafolio de productos de flujo de trabajo de IA autónoma dirigido a desarrolladores empresariales.
Detalles clave aún por aclarar
No obstante, esta función todavía presenta incertidumbres que merecen atención.
Anthropic aún no ha divulgado los criterios específicos que utiliza en su capa de seguridad para determinar el nivel de riesgo de las operaciones, y esta información es precisamente la que los desarrolladores necesitan conocer antes de adoptar ampliamente la función.
Además, el modo automático actualmente solo soporta los modelos Claude Sonnet 4.6 y Opus 4.6, y todavía está en fase de vista previa de investigación, lo que significa que el producto aún no está finalizado.
Para las empresas que consideren desplegar esta función en entornos de producción, las limitaciones y la falta de transparencia en la información podrían ser factores decisivos para una evaluación prudente.
Advertencias de riesgo y términos de exención de responsabilidad
El mercado tiene riesgos, y la inversión debe ser cautelosa. Este artículo no constituye un consejo de inversión personal y no considera los objetivos, situación financiera o necesidades particulares de cada usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. La inversión se realiza bajo su propio riesgo.