Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El paralelismo híbrido desagregado de Ray mejora el entrenamiento multimodal de IA en un 30%
Iris Coleman
10 de diciembre de 2025 01:06
El innovador paralelismo híbrido desagregado de Ray mejora significativamente la eficiencia del entrenamiento de IA multimodal, logrando una mejora de rendimiento de hasta 1,37 veces mayor y superando los problemas de memoria.
En un avance significativo para el entrenamiento en inteligencia artificial, Ray ha introducido un enfoque de paralelismo híbrido desagregado que acelera el entrenamiento de modelos de IA multimodales en un 30%, según Anyscale. Este desarrollo aborda las complejidades y desafíos computacionales de entrenar modelos que procesan diversos tipos de datos como texto, imágenes y audio.
Desafíos en el entrenamiento multimodal de IA
Los modelos multimodales de IA, a diferencia de los modelos tradicionales homogéneos de lenguaje grande, consisten en módulos especializados con necesidades computacionales y de memoria variables. Los modelos de visión-lenguaje (VLMs), por ejemplo, integran un codificador de visión con un modelo de lenguaje grande (LLM). Esta integración resulta en complejidades arquitectónicas, especialmente al tratar con imágenes de alta resolución y secuencias largas. Técnicas tradicionales como el paralelismo tensorial y DeepSpeed ZeRO3 a menudo fallan, lo que resulta en ineficiencias y posibles errores de falta de memoria.
El enfoque innovador de Ray
El paralelismo híbrido desagregado de Ray aprovecha la flexibilidad de su marco universal, permitiendo estrategias de paralelización adaptadas para cada módulo dentro de un modelo multimodal. Al utilizar la arquitectura basada en actores de Ray, los desarrolladores pueden asignar recursos de forma independiente, optimizando para los requisitos únicos de cada módulo. Esto resulta en una orquestación más eficiente de cargas de trabajo complejas, como se demuestra con el modelo Qwen-VL 32B.
Evaluación y rendimiento
En pruebas realizadas con el modelo Qwen-VL 32B, el enfoque de Ray mostró una mejora de 1,37 veces en el rendimiento en comparación con los métodos tradicionales. La estrategia combinaba paralelismo de secuencias para el codificador de visión con paralelismo tensorial para el LLM, gestionando eficazmente las demandas de memoria y computación entre diferentes módulos. Este método no solo mejoró la velocidad, sino que también permitió entrenar secuencias de hasta 65.000 tokens de longitud, superando las capacidades de DeepSpeed ZeRO3, que tuvo problemas de memoria con 16.000 tokens.
Perspectivas de futuro
El éxito del paralelismo híbrido desagregado de Ray para mejorar la eficiencia del entrenamiento de IA allana el camino para su aplicación en clústeres de GPU más grandes y configuraciones de hardware diversas. Su capacidad para adaptarse a diversas arquitecturas multimodales resalta su potencial para una implementación más amplia en el desarrollo de IA.
Para quienes estén interesados en explorar este enfoque innovador, la implementación de Ray está disponible para experimentación y comentarios en su repositorio GitHub.
Fuente de la imagen: Shutterstock