Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Калифорнийский технологический институт выпустил открытый исходный код модели Bonsai с 1-битной архитектурой: 8 миллиардов параметров занимают всего 1,15 ГБ, и на iPhone достигается скорость обработки 44 токена/с
Согласно мониторингу 1M AI News, AI-лаборатория PrismML, соучреждённая математиком Калифорнийского технологического института Babak Hassibi, завершила период скрытности и открыла исходный код серии 1-bit Bonsai крупномасштабных языковых моделей. Флагманская модель 1-bit Bonsai 8B имеет 8,2 млрд параметров, а расход памяти составляет всего 1,15 GB — примерно в 14 раз меньше, чем у моделей того же класса в формате 16-bit (около 16 GB). Веса открыто доступны для скачивания на HuggingFace по лицензии Apache 2.0, а также опубликованы две более компактные модели: 4B (0,5 GB) и 1,7B (0,24 GB).
Bonsai 8B — это сквозная (end-to-end) настоящая 1-bit модель: слои эмбеддингов, внимания, MLP и выходная голова целиком используют только представление весов через +1 или -1, без каких-либо высокоточных патчей. PrismML утверждает, что её способность к инференсу и пониманию языка на стандартных бенчмарках сопоставима со 16-bit моделями в полноточном формате. Основную математику сжатия команда разрабатывала в Caltech на протяжении нескольких лет; интеллектуальная собственность принадлежит Калифорнийскому технологическому институту, а PrismML является единственным эксклюзивным лицензиатом. Модель обучалась на Google v4 TPU.
Результаты замеров скорости: на M4 Pro Mac — 136 token/s, на RTX 4090 — 440 token/s, на iPhone 17 Pro Max — около 44 token/s; при этом стандартная 16-bit модель 8B не помещается ни на один iPhone. Энергопотребление снижено примерно в 4–5 раз по сравнению с 16-bit моделями. PrismML отмечает, что существующее железо не предназначено для 1-bit-инференса; преимущество по скорости и энергопотреблению в основном связано с тем, что сжатие уменьшает потребление памяти. Если в будущем появится аппаратное обеспечение, специально разработанное под 1-bit (нужны только сложение и вычитание, без умножения), эффективность можно будет повысить ещё на порядок.
PrismML завершила раунд SAFE и посевной раунд на 16,25 млн долларов; инвесторами выступают Khosla Ventures, Cerberus Capital и Калифорнийский технологический институт. Основатель Khosla Ventures Vinod Khosla говорит, что это «не просто небольшая итерация — это крупный технологический прорыв, математический прорыв, и это не просто очередная небольшая модель».