Эпоха рассуждений ИИ: как Nvidia создает корону следующей волны вычислительной мощности?

robot
Генерация тезисов в процессе

В эпоху GPT-3 модели с 175 миллиардами параметров уже казались огромными; сегодня модели с триллионами параметров и гибридные экспертные архитектуры стали нормой. Основной проблемой индустрии ИИ — задержки при выводе — становится следующей сложностью, которую Nvidia стремится преодолеть.

Философия дизайна GPU, ориентированная на «максимальную пропускную способность», сталкивается с серьезными вызовами в сценариях реального времени. Однако при обработке отдельных запросов пользователей — «небольшими пакетами и последовательной генерацией» — архитектура, зависящая от высокопроизводительной памяти HBM, вызывает частые переносы данных, что приводит к значительным задержкам и растрате энергии.

Появление LPU — это именно решение этой фундаментальной несогласованности архитектур.

Проникая сквозь шум сложной цепочки поставок, какие ключевые этапы заслуживают нашего внимания в эпоху вывода?

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.4KДержатели:1
    0.00%
  • РК:$0.1Держатели:0
    0.00%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.39KДержатели:1
    0.00%
  • РК:$2.52KДержатели:2
    0.73%
  • Закрепить