Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Калифорнийский технологический институт представил открытый исходный код модели Bonsai: 8 миллиардов параметров всего 1,15 ГБ, работает на iPhone со скоростью 44 токена/с
Сообщение из Coin Bureau. Согласно мониторингу 1M AI News, лаборатория PrismML, основанная совместно математиком Бабаком Хасибби из Калифорнийского технологического института, завершила период скрытности и открыла исходный код серии 1-bit Bonsai для больших языковых моделей. Флагманская модель 1-bit Bonsai 8B имеет 8,2 млрд параметров, при этом потребление памяти составляет лишь 1,15 ГБ — примерно в 14 раз меньше, чем у 16-bit моделей того же класса (около 16 ГБ). Веса доступны для открытой загрузки на HuggingFace по лицензии Apache 2.0, а также опубликованы две более компактные модели: 4B (0,5 ГБ) и 1,7B (0,24 ГБ). Bonsai 8B — это end-to-end настоящая 1-bit модель: встраивающий слой, слой внимания, слой MLP и выходная голова целиком представлены весами только как +1 или -1, без каких-либо высокоточных патчей. PrismML утверждает, что по возможностям вывода и понимания языка в стандартных бенчмарках она сопоставима с 16-bit моделями полной точности. Ключевую компрессионную математику команда разрабатывала на протяжении нескольких лет в Калифорнийском технологическом институте; интеллектуальные права принадлежат Калифорнийскому технологическому институту, а PrismML является единственным эксклюзивным лицензиатом. Модель обучали на Google v4 TPU. По измеренной скорости: на Google v4 TPU, используемом с помощью HuggingFace открытых загрузок, на M4 Pro Mac — 136 токенов в секунду, на RTX 4090 — 440 токенов в секунду, на iPhone 17 Pro Max — около 44 токенов в секунду, тогда как стандартная 16-bit модель 8B не помещается ни на один iPhone. Энергопотребление по сравнению с 16-bit моделью снижено примерно в 4–5 раз. PrismML указывает, что существующее оборудование не предназначено для 1-bit вывода, а преимущества по скорости и энергопотреблению в основном обусловлены уменьшением занимаемой памяти; если в будущем появится оборудование, специально разработанное для 1-bit (достаточно операций сложения и вычитания, без умножения), эффективность может вырасти еще на порядок. PrismML завершила раунд SAFE и посевное финансирование на 16,25 млн долларов; инвесторы — Khosla Ventures, Cerberus Capital и Калифорнийский технологический институт. Основатель Khosla Ventures Винод Кхосла говорит, что это «не просто небольшая итерация, а крупный технологический прорыв — математический прорыв, а не просто еще одна маленькая модель».