Штучний інтелект керує зберіганням даних у безперервних ітераціях! Масове виробництво технології PIM від Samsung вже близько, або обхід CPU та GPU для безпосередніх обчислень

robot
Генерація анотацій у процесі

AI переосмислює ринок зберігання даних із неймовірною силою, одночасно сприяючи появі нових технологій. Після появи таких “чорних технологій”, як HBF, H³, у сфері зберігання з’являються нові напрямки.

За повідомленнями ЗМІ, компанія Samsung Electronics планує застосувати технологію PIM у пам’яті LPDDR5X. Наразі Samsung співпрацює з ключовими клієнтами для розробки технології PIM для LPDDR5X, очікується, що зразки будуть доступні вже у другій половині цього року. Крім того, сторони активно обговорюють застосування технології PIM у наступному стандарті LPDDR6.

PIM, повністю Processing in Memory, означає інтеграцію обробника безпосередньо у пам’ять. Це передбачає розміщення обчислювальних блоків (ALU) безпосередньо у рівні зберігання пам’яті. Традиційні методи вимагають передачі даних до CPU або GPU для обчислень, тоді як PIM виконує обчислення безпосередньо у пам’яті, що може подолати “стіну пам’яті”.

У недавній промові на конференції SEMICON Korea 2026 у Південній Кореї керівник команди з проектування DRAM у Samsung, Сон Кьо Мін, підкреслив необхідність технології PIM, зазначивши: «Зараз через недостатню пропускну здатність пам’яті AI не може повністю розкрити потенціал GPU». На його думку, PIM не лише значно підвищує пропускну здатність, але й покращує енергоефективність.

Наразі Samsung вже завершила технічну перевірку HBM-PIM та інших продуктів (PoC), і переходить до комерційної стадії виробництва. Основним продуктом цієї технології є серія LPDDR, оптимізована для смартфонів та кінцевих AI-пристроїв.

Крім того, SK Hynix також активно працює над PIM. На виставці CES 2026 у США компанія продемонструвала кілька інноваційних продуктів і технологій, зокрема AiMX на базі архітектури PIM. Shanghai Securities зазначає, що для прискорення впровадження AI і зростання інформаційного потоку, пам’ятеві чіпи вже перетворилися з простих компонентів у ключові продукти AI-індустрії. У майбутньому, через технологічні прориви та екосистемну співпрацю, буде сформовано конкурентоспроможність у сфері AI-зберігання.

Центральний банк цінних паперів стверджує, що як нова обчислювальна архітектура, інтеграція зберігання і обчислень (存算一體) передбачає повну інтеграцію пам’яті та обчислень, додавання обчислювальних можливостей безпосередньо у пам’ять. Це дозволяє виконувати двовимірні та тривимірні матричні обчислення за допомогою нових високоефективних архітектур, поєднуючи передові технології упаковки у пост-Муровий період та нові типи пам’яті, що ефективно подолають вузькі місця архітектури Вон Ноймана і значно підвищать енергоефективність обчислень. PIM вбудовує обчислювальні блоки безпосередньо у чіп пам’яті, надаючи самій пам’яті здатність виконувати обчислення, що особливо корисно для задач з великим обсягом даних, і може суттєво підвищити швидкість обробки даних та енергоефективність.

Цінний папірний банк зазначає, що аналізуючи сучасну архітектуру пам’яті для обчислень, основною перешкодою є продуктивність DRAM (пропускна здатність і об’єм). Чим більша модель тренується, тим більше потрібно пам’яті. На стороні виведення (інференції) зростає кількість користувачів і відповідно пропускна здатність, що створює потребу в оновленнях. У епоху AI необхідне оновлення пам’яті: “інтеграція зберігання і обчислень” — це довгостроковий тренд, а “ближче до пам’яті обчислення” (PNM) — актуальний шлях на сьогодні.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити