Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
TII lanza dos modelos Falcon Vision de código abierto: la segmentación de 0.6B supera a SAM 3 con el aumento de la complejidad del idioma
Según el monitoreo de 1M AI News, el Instituto de Innovación Tecnológica (TII) en los Emiratos Árabes Unidos ha lanzado dos modelos de visión, Falcon Perception y Falcon OCR, en Hugging Face. Ambos modelos utilizan un único backbone Transformer de “early fusion”: los parches de imagen y los tokens de texto comparten el espacio de parámetros, con los tokens de imagen usando atención bidireccional y los tokens de texto usando atención causal, eliminando el diseño en cascada tradicional de “codificador visual + decodificador de texto”. Esto permite que los modelos comprendan de verdad las restricciones espaciales y las relaciones entre objetos en lenguaje natural, en lugar de limitarse a realizar recuperación semántica de características visuales. Falcon Perception tiene 0.6B de parámetros y está diseñado para segmentación y localización de vocabulario abierto. Logró una puntuación Macro-F1 de 68.0 en el benchmark SA-Co, superando la puntuación de Meta SAM 3, que fue 62.3. TII también lanzó el benchmark de diagnóstico PBench, que evalúa las capacidades de forma jerárquica. Falcon Perception muestra la mayor ventaja en tareas que requieren comprensión del lenguaje: 1. L2 (reconocimiento guiado por OCR, como encontrar “un biberón con la etiqueta 168”): 38.0 vs 24.6 de SAM 3 (+13.4) 2. L3 (relaciones espaciales, como “el coche negro a la izquierda” y “la tercera ventana desde la izquierda”): 53.5 vs 31.6 de SAM 3 (+21.9) 3. L4 (relaciones interactivas, como “la persona que sostiene un paraguas” y “la persona que usa un teléfono”): 49.1 vs 33.3 de SAM 3 (+15.8) 4. Escenas densas (cientos de instancias coexistiendo): 72.6 vs 58.4 de SAM 3 (+14.2). La brecha para objetos simples (L0) es solo +0.8, confirmando la tendencia de que la disparidad aumenta con la complejidad del lenguaje. En términos de calibración de existencia de instancias (si el objetivo existe), SAM 3 aún mantiene una ventaja: MCC 0.82 vs 0.64. Falcon OCR tiene 0.3B de parámetros, reutiliza el mismo backbone pero se entrena desde cero, específicamente diseñado para comprensión de documentos. Obtuvo 80.3 en el benchmark olmOCR (1.7 puntos por debajo del primer lugar), liderando a todos los modelos evaluados en diseños de múltiples columnas (87.1%) y extracción de tablas (90.3%); obtuvo 88.64 en OmniDocBench, superando a modelos con parámetros mayores o a los que dependen de infraestructura propietaria como DeepSeek OCR v2, GPT 5.2 y Mistral OCR 3. Según TII, Falcon OCR es el modelo de OCR de código abierto con mayor rendimiento, logrando una alta prueba de concurrencia de 5,825 tokens por segundo en un solo A100-80GB (aproximadamente 2.9 imágenes por segundo para el proceso completo). Ambos modelos ya están disponibles como código abierto en Hugging Face.