Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Батько HBM пророкує революцію в архітектурі ШІ: пам’ять замінить GPU і стане ядром
Коли AI від «генерації» переходить до «самостійних дій», вузьке місце в обчислювальних ресурсах може зміститися з GPU на пам’ять.
Згідно з повідомленнями місцевих медіа Південної Кореї, зокрема The Asian Economy, професор Корейського інституту передових технологій (KAIST), якого в індустрії називають «батьком HBM», Joungho Kim нещодавно зробив прогноз: нинішню GPU-центровану AI-архітектуру, яку зараз домінує NVIDIA, зрештою замінить нова архітектура з пам’яттю як ядром.
За цим висновком стоїть фундаментальна зміна формату AI-застосувань. Від генеративного AI до AI-агентів (Agentic AI) системі потрібно одночасно опрацьовувати величезні масиви документів, відео та мультимодальних даних — Kim називає цей тренд підйомом «інженерії контексту» (context engineering). Він зазначив, що для забезпечення швидкості та точності пропускна здатність і ємність пам’яті мають зростати щонайменше в 1000 разів.
Ще вражаючіші цифри — на стороні попиту: за словами Kim, раніше процитованими Money Today Broadcasting, якщо обсяг вхідних даних збільшиться у 100–1000 разів, потреба в пам’яті може зрости експоненційно, а загальне збільшення загального обсягу потенційно сягне 1 000 000 разів.
HBM дістане стелю, HBF прийде на зміну
Kim прямо заявив, що нинішня технологія HBM — надшвидка передача даних завдяки вертикальному стекуванню DRAM, яка наразі домінує на ринку пам’яті для AI-акселераторів, — у епоху AI-агентів буде недостатньою.
Запропоноване ним рішення наступного покоління — HBF (High Bandwidth Flash, високошвидкісна спалах-пам’ять): із використанням стекованого NAND замість DRAM створюється «гігантська полиця для книг»-подібна довгострокова пам’ять, ємність якої значно перевищує наявні ліміти.
У плані аналогії: HBM — це скоріше як стікери на робочому столі: швидко, але ємність обмежена; тоді як HBF — як цілісна книжкова стіна, де масштаби того, скільки інформації можна зберегти, — абсолютно інші.
На рівні архітектури SK hynix уже запропонувала в публікації в IEEE архітектуру «H3» — за повідомленням The Korea Economic Daily від лютого, ця архітектура розгортатиме HBM і HBF пліч-о-пліч біля GPU, а не як у наявних дизайнах, де лише HBM розміщується в безпосередній близькості до процесора. Це означає, що роль GPU перейде від «головної фігури» до «другорядної», а обчислювальні блоки будуть вбудовані в систему, де основною діючою «особою» стане пам’ять.
Таймлайн поступово стає зрозумілим.
Згідно з прогнозом Kim, зразки інженерної версії HBF очікуються приблизно до 2027 року, а Google, NVIDIA або AMD найраніше можуть застосувати цю технологію в 2028 році.
Такий ритм дуже схожий на траєкторію, якою HBM колись вийшов із лабораторії до масштабного комерційного застосування, і це також означає, що індустріальне «вікно можливостей» уже відкрите.
SK hynix і Samsung — знову лицем до лиця
Kim також зазначив, що конкурентна картина в сегменті HBF повторюватиме сценарій епохи HBM — SK hynix і Samsung знову стануть головними дійовими особами.
Наразі SK hynix у лютому цього року спільно з SanDisk створила альянс зі стандартизації HBF, маючи на меті перехопити контроль над екосистемою. Samsung, своєю чергою, з одного боку, безперервно просуває наступні продукти HBM, такі як HBM4E, а з іншого — паралельно інвестує в розробку NAND-архітектури, яка відповідає концепції HBF, про це повідомляє Aju News.
Два гіганти прокладають різні шляхи, але ціль спрямована в один і той самий сегмент. Хто зможе першим замкнути цикл від розробки стандартів до серійних поставок, значною мірою визначить розклад у наступній фазі ринку AI-пам’яті.
Попередження щодо ризиків і застереження щодо відповідальності