Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El asistente de codificación de Anthropic con 510,000 líneas de código fuente filtradas, incluyendo muchas funciones no publicadas
El nuevo gigante prometedor de la IA, Anthropic, ha “liberado” de forma inesperada el código fuente de 510000 líneas de su asistente de codificación Claude Code.
A las 3:31 del 31 de marzo, debido a un error al empaquetar (envasado) con npm (un gestor de paquetes), se filtró parte del código fuente del popular herramienta de programación con IA Claude Code de Anthropic, con un total de aproximadamente 512000 líneas, que incluye 4756 archivos de código fuente, más de 40 módulos de herramientas y varias funciones que aún no se habían publicado, obligando a la empresa a “liberar” el código a desarrolladores de todo el mundo. Aunque la compañía reaccionó con rapidez, los desarrolladores ya han compartido en gran cantidad estos códigos en comunidades como GitHub.
Al respecto, la postura de Anthropic fue: “Este incidente no involucra ni filtra datos o credenciales sensibles de clientes. Se debe a un problema de empaquetado publicado por error humano, y no a una vulnerabilidad de seguridad. Estamos tomando medidas para evitar que ocurra un caso similar nuevamente.”
Según información pública, Anthropic fue fundada en 2021 por ex empleados de OpenAI. Sus productos incluyen modelos de gran escala de la serie Claude. Desde su creación, la empresa ha recibido inversiones de gigantes tecnológicos como Amazon, Google, Nvidia y Salesforce.
Para una startup como Anthropic, que enfatiza la “seguridad” y que está buscando activamente salir a bolsa (IPO), la filtración del código fuente es sin duda un golpe importante: permite a los competidores de la empresa y a los desarrolladores de software conocer a fondo el proceso de desarrollo de su producto, y hace que usuarios e inversores se preocupen por la seguridad de los datos de Anthropic.
Un análisis de medios extranjeros señala que la información filtrada en esta ocasión revela cómo Anthropic resuelve un problema central al que se enfrentan las herramientas de IA: cómo mantener la precisión cuando el modelo procesa tareas largas o complejas. Lo inesperado es que Claude Code no depende directamente del contenido generado previamente, sino que cuestiona y verifica continuamente sus propios resultados para evitar el problema de las “alucinaciones”.
Además, incluso sin la intervención del usuario, Claude Code seguirá ejecutándose en segundo plano, reorganizando la información aprendida, estableciendo vínculos entre contenidos distintos, corrigiendo contradicciones entre lo anterior y lo posterior y descartando suposiciones erróneas. Cuando el usuario regresa, Claude Code puede entonces generar una comprensión más clara y precisa de la tarea.
Esta filtración también muestra que Anthropic había intentado involucrar a la IA en el desarrollo de proyectos de código abierto, pero no había etiquetado de manera explícita el contenido generado por IA en las contribuciones correspondientes. Al mismo tiempo, la empresa explora cómo hacer que sus herramientas de IA sean más “adictivas”, y más difíciles de abandonar para los usuarios. Anthropic está considerando lanzar un asistente de proceso de guardia autónomo con el nombre en clave “Kairos”, y también un “Buddy System (Sistema de compañeros)” que incluye un sistema completo de mascotas electrónicas.
Cabe destacar que esta ya es la segunda vez que Anthropic sufre una filtración en menos de una semana. El 26 de marzo, algunos desarrolladores notaron que en el caché de datos público aparecían la descripción del modelo de IA que Anthropic está por lanzar y algunos documentos relacionados.
En febrero de este año, Anthropic completó una ronda de financiación de 30 mil millones de dólares liderada por MGX, una empresa de inversión tecnológica con sede en Emiratos Árabes Unidos, y su valoración alcanzó 380 mil millones de dólares. El 27 de marzo, según informes de medios extranjeros, Anthropic está discutiendo planes para una oferta pública inicial (IPO), con la posibilidad de salir a bolsa en Estados Unidos tan pronto como en octubre de este año.
(Fuente: The Paper)