Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Ramp Labs предлагает новое решение для совместного хранения памяти нескольких агентов, при этом потребление токенов снижено до 65%
ME News Новости, 11 апреля (UTC+8), компания по инфраструктуре искусственного интеллекта Ramp Labs опубликовала исследование «Latent Briefing», в котором посредством прямого сжатия кеша больших моделей KV достигается эффективное совместное использование памяти между мультиагентными системами, значительно снижая расход токенов без потери точности. В большинстве архитектур мультиагентов организатор (Orchestrator) разбивает задачи и многократно вызывает модели исполнителей (Worker), при этом по мере расширения цепочки рассуждений расход токенов экспоненциально возрастает. Основная идея Latent Briefing заключается в использовании механизма внимания для выявления действительно важных частей контекста, прямо отбрасывая избыточную информацию на уровне представления, а не полагаясь на медленные LLM-сводки или нестабильный RAG-поиск. В бенчмарке LongBench v2 данный метод показал отличные результаты: снижение расхода токенов у моделей исполнителей на 65%, медиана экономии токенов для документов средней длины (от 32k до 100k) достигла 49%, общая точность повысилась примерно на 3 процентных пункта по сравнению с базовой линией, а дополнительное время на каждое сжатие составило всего около 1,7 секунд, что в 20 раз быстрее исходного алгоритма. В экспериментах использовались Claude Sonnet 4 в роли организатора и Qwen3-14B в роли модели исполнителя, охватывая сценарии с академическими статьями, юридическими документами, романами и правительственными отчетами. Исследование также выявило, что оптимальный порог сжатия зависит от сложности задачи и длины документа — сложные задачи лучше подвергать агрессивному сжатию для фильтрации спекулятивных ошибок рассуждений, а длинные документы — более мягкому сжатию для сохранения рассеянной ключевой информации. (Источник: BlockBeats)