Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Microsoft abre código abierto Phi-Ground: precisión en clics con 4 mil millones de parámetros supera a Operator y Claude
Según la monitorización de Beating, Microsoft ha abierto el código de la familia de modelos Phi-Ground, especializados en resolver el problema de “¿dónde en la pantalla” cuando la IA controla una computadora. Con una captura de pantalla y una instrucción, el modelo genera coordenadas de clic precisas. La versión de código abierto con 4 mil millones de parámetros, combinada con un gran modelo para planificación de instrucciones, supera en precisión de clics en la prueba de referencia Showdown a OpenAI Operator y Claude Computer Use, y obtiene el primer lugar en cinco evaluaciones, incluyendo ScreenSpot-Pro, todas ellas con menos de 100 mil millones de parámetros.
El equipo realizó una validación a gran escala con más de 40 millones de datos, y descubrió que las tres técnicas de entrenamiento comúnmente usadas en artículos académicos anteriores dejan de ser efectivas cuando aumenta la cantidad de datos. La estrategia realmente efectiva es muy simple: los coordenadas se deben tratar como números normales, por ejemplo, “523, 417”. Varias publicaciones anteriores inventaron un vocabulario de posiciones específico para las coordenadas, esperando que el modelo las diga como palabras, pero en entrenamiento a gran escala estas nuevas palabras no se aprenden bien y, en cambio, causan fallos en el modelo. Otro aspecto clave es poner las instrucciones de texto antes de la imagen en la entrada. Los grandes modelos leen la información en una sola dirección: primero leen “haz clic en el icono de configuración azul” y luego ven la imagen, por lo que ya saben qué buscar al procesar los píxeles; en cambio, si primero ven la imagen, el modelo solo escanea de forma ciega, lo que reduce mucho la precisión.
El equipo también descubrió que el aprendizaje por refuerzo es útil incluso para tareas puramente visuales. La técnica consiste en hacer que el modelo prediga múltiples clics en la misma imagen, y entrenar comparando los resultados correctos e incorrectos (este método se llama DPO, y es una forma de aprendizaje por refuerzo). Incluso después de un ajuste fino completo, esta técnica puede mejorar significativamente la precisión. Hasta ahora, el aprendizaje por refuerzo se usaba principalmente en tareas de razonamiento en lenguaje, pero aquí se ha demostrado que también funciona en tareas de percepción puras como “mirar la imagen y señalar”, lo cual es una sorpresa. Para abordar el problema de botones demasiado pequeños en pantallas 4K (un botón puede ocupar solo el 0.07% del área de la pantalla), el equipo durante el entrenamiento redujo proporcionalmente la captura de pantalla y la pegó en un lienzo grande con fondo blanco, simulando escenarios reales donde los elementos son extremadamente pequeños en pantallas de alta resolución. Esta técnica es especialmente efectiva en software profesional complejo como Photoshop.