Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Каліфорнійський технологічний інститут відкритого коду справжня модель 1-біт Bonsai: 8B параметрів всього 1,15 ГБ, працює на iPhone з швидкістю 44 токени/с
За даними моніторингу 1M AI News, AI-лабораторія PrismML, заснована спільно математиком Caltech Babak Hassibi, завершує період інкогніто та відкриває код серії 1-bit Bonsai LLM. Флагманська модель 1-bit Bonsai 8B має 8.2 млрд параметрів, займає лише 1.15 GB пам’яті та стискається приблизно в 14 разів порівняно з 16-bit моделями того ж класу (близько 16 GB). Ваги відкрито доступні для завантаження на HuggingFace під ліцензією Apache 2.0, а також опубліковано дві менші моделі: 4B (0.5 GB) і 1.7B (0.24 GB).
Bonsai 8B — це end-to-end справжня 1-bit модель: вбудувальний шар, attention-шари, MLP-шари та вихідна голівка — усі представляють ваги лише як +1 або -1, без жодних високоточних патчів. PrismML стверджує, що за результатами на стандартних бенчмарках можливості виведення (inference) та розуміння мови у неї на рівні 16-bit моделей повної точності. Ключова стиснювальна математика роками розроблялася командою в Caltech, а права інтелектуальної власності належать Caltech; PrismML є єдиним ексклюзивним ліцензіатом. Модель навчали на TPU v4 від Google.
Результати на практиці: 136 token/s на M4 Pro Mac, 440 token/s на RTX 4090, приблизно 44 token/s на iPhone 17 Pro Max, тоді як стандартна 16-bit 8B модель не поміщається жодним iPhone. Енергоспоживання знижене приблизно у 4-5 разів порівняно з 16-bit моделлю. PrismML зазначає, що наявне обладнання не створене для 1-bit inference, а переваги за швидкістю та енергоефективністю головним чином походять від зменшеного обсягу пам’яті; якщо в майбутньому з’явиться обладнання, спеціально розроблене під 1-bit (потрібні лише додавання та віднімання, без множення), ефективність може зрости ще на порядок.
PrismML завершила раунд SAFE та посівне фінансування на 16.25 млн доларів США; інвесторами є Khosla Ventures, Cerberus Capital та Caltech. Vinod Khosla, співзасновник Khosla Ventures, каже, що це «не невелика ітерація, а значний технологічний прорив, математичний прорив — не просто чергова маленька модель».