Cerebras запускає роудшоу IPO, орієнтуючись на $115-$125 за акцію

Cerebras Systems почне пропонувати свої акції інвесторам у понеділок, з планами продавати акції за ціною від приблизно $115 до $125 кожна, згідно з джерелом, яке ознайомлене з планами і говорило Reuters.

Виробник чипів штучного інтелекту намагається вийти на біржу вдруге. Компанія скасувала свою першу спробу в жовтні минулого року.

Cerebras повідомила про кращі фінансові результати за рік, що закінчився 31 грудня. Компанія отримала доход у розмірі 510 мільйонів доларів, що є зростанням порівняно з 290,3 мільйонами доларів минулого року. Вона також отримала прибуток у розмірі 1,38 долара на акцію, порівняно з збитком у 9,90 долара на акцію у попередньому році.

Morgan Stanley, Citigroup, Barclays та UBS займаються продажем акцій.

Індустрія змінюється

Стратегія Cerebras не є випадковою. Індустрія штучного інтелекту змінюється від розробки нових моделей AI до їхнього використання на практиці. Ця зміна є золотою можливістю для малих компаній, що конкурують із монополією Nvidia (NASDAQ: NVDA). Як повідомляє Cryptopolitan, навіть OpenAI не переконана у інференційному обладнанні Nvidia.

Це тому, що запуск моделей AI, відомих як inference, вимагає інших можливостей, ніж їхнє навчання. Це створює можливості для спеціалізованих виробників чипів знайти своє місце на ринку. Обробка великих пакетів інформації потребує іншого балансу обчислювальної потужності, пам’яті та швидкості передачі даних, ніж запуск чат-бота або асистента з кодування.

Ця різноманітність вимог зробила ринок inference більш різноманітним. Деякі завдання краще виконуються на традиційних графічних чипах, тоді як інші потребують більш сучасного обладнання.

Придбання Nvidia компанії Groq минулого грудня за 20 мільярдів доларів показує, як це розгортається. Groq створювала чипи з швидкою SRAM-пам’яттю, які могли обробляти відповіді AI швидше за стандартні графічні чипи. Але компанія зіштовхнулася з труднощами масштабування через обмежену обчислювальну потужність своїх чипів і їхню застарілу технологію.

Nvidia вирішила цю проблему, розподіливши роботу. Вона використовує свої звичайні графічні чипи для важкої обчислювальної частини генерації відповідей AI, що називається prefill, тоді як чипи Groq використовуються для швидшого етапу декодування, який потребує менше обчислень, але швидкого доступу до даних.

Інші великі компанії роблять щось подібне. Amazon Web Services оголосила про свою власну систему розподілу незабаром після великої технологічної конференції. Вона поєднує свої кастомні чипи Trainium для роботи prefill з чипами Cerebras розміром з пластину для операцій декодування.

Intel також долучилася, оголосивши про плани поєднати графічні чипи з процесорами від іншого стартапу SambaNova. Графічні чипи займуться prefill, тоді як чипи SambaNova — декодуванням.

Більшість менших компаній-виробників чипів досягли успіху у роботі з декодуванням. SRAM-пам’ять не зберігає багато інформації, але вона надзвичайно швидка. За достатньої кількості чипів або одного дуже великого чипа, як робить Cerebras, ці системи відмінно справляються з завданнями декодування. Але компанії не зупиняються на цьому.

Нові технології кидають виклик підходу розподілених чипів

Lumai, ще один стартап, цього тижня оголосила, що створила чип, який використовує світло замість електрики для математичних операцій у ядрі роботи AI. Цей підхід споживає набагато менше енергії, ніж традиційні чипи.

Компанія очікує, що її майбутні системи Iris Tetra забезпечать продуктивність у 1 ексаоперацію AI, використовуючи всього 10 кіловатів енергії до 2029 року.

Чипи поєднують світлові та електричні компоненти, але світло виконує більшу частину роботи під час inference. Lumai планує спершу використовувати ці чипи як автономні замінники графічних чипів у пакетних обробках. Пізніше компанія хоче використовувати їх і для prefill.

Не всі вважають, що розподіл роботи між різними чипами має сенс. Tenstorrent цього тижня представила свою систему Galaxy Blackhole, і її CEO Jim Keller критикував цей підхід.

«Кожна компанія у галузі об’єднується для створення прискорювача прискорювача прискорювача. CPU виконує код. GPU прискорює CPU. TPU прискорює GPU. LPU прискорює TPU. І так далі. Це призводить до складних рішень, які навряд чи будуть сумісні з змінами в моделях і застосуваннях AI. У Tenstorrent ми вважали, що більш універсальне і просте рішення працюватиме», — сказав Келлер.

Найрозумніші криптоголови вже читають наші новини. Хочете приєднатися? Приєднуйтесь до них.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено