Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Investigador de Anthropic demuestra: usar LLM para detectar en masa 500 vulnerabilidades zero-day
Headline
Investigador de Anthropic en [un]prompted 2026: LLM extrae en masa 500 vulnerabilidades de día cero
Summary
Rohan Paul compartió el video de la charla de Nicholas Carlini en [un]prompted 2026, titulada “Black-hat LLMs”. Carlini es investigador de seguridad en IA de Anthropic, y demostró cómo los atacantes pueden utilizar modelos de lenguaje grande para localizar y explotar vulnerabilidades de software. Número clave: 500 exploits de día cero generados de manera automatizada. Más preocupante es que, a medida que las capacidades de LLM en la investigación de vulnerabilidades aumentan, el modelo de amenaza está cambiando: de “cómo atacar modelos de IA” a “qué sucederá si la IA comienza a atacar otros sistemas”.
Analysis
No es una especulación en papel, sino una evidencia reproducible. Carlini documentó cómo LLM extrajeron defectos reales que las pruebas de fuzzing tradicionales y el análisis estático pasaron por alto, incluidos problemas de elusión de autenticación. En su blog, enfatizó repetidamente la eficiencia:
La retroalimentación de la comunidad (discusión en la conferencia y hilos de Hacker News) indica que la industria está tomando en serio este cambio. Hay un punto de vista razonable en contra: la extracción de vulnerabilidades asistida por IA podría beneficiar más a la defensa, ya que las empresas pueden implementarlo sistemáticamente en CI/CD y en líneas base de activos, cubriendo más y descubriendo antes. Pero Carlini dejó claro que el resultado sigue siendo incierto: quién se beneficia más, si la defensa o el ataque, actualmente nadie puede concluirlo.
Resumen del impacto en ataque y defensa
Conclusión:
Impact Assessment
Juicio: Estamos en un punto de inflexión “temprano pero acelerado”. Tienen la mayor ventaja los equipos defensivos con capacidades de ingeniería y sistematización, los proveedores de seguridad, las grandes empresas, así como los fondos que pueden asignar recursos para incubar cadenas de herramientas. Los individuos en el equipo rojo se beneficiarán, pero aquellos que implementen sistemáticamente obtendrán mayores recompensas primero.