DeepSeek выпустила новую статью

robot
Генерация тезисов в процессе

В ожидании нового флагманского решения DeepSeek V4, команда DeepSeek тихо выпустила новую научную статью. Эта статья была совместно написана DeepSeek и Пекинским университетом, и Цинхуа, и направлена на ключевой аспект, который определяет практическое применение больших моделей — скорость вывода, предоставляя эффективное решение для базовой системы для все более сложных AI-агентов. Конкретно, новая статья представляет инновационную систему вывода под названием DualPath, специально оптимизированную для производительности вывода больших моделей (LLM) под нагрузкой агентов. Внедряя механизм “двойного пути чтения KV-Cache (аналогично кэш-памяти)”, перераспределяя нагрузку на хранилище сети, оффлайн-пропускная способность вывода увеличивается до 1.87 раз, а среднее количество запущенных агентов в онлайн-сервисах увеличивается на 1.96 раз в секунду. В введении статьи упоминается, что большие модели быстро эволюционируют из одноразовых диалоговых роботов и независимых моделей вывода в системы агентов — способных самостоятельно планировать, вызывать инструменты и решать реальные задачи через многократные взаимодействия. Этот сдвиг в парадигме применения приводит к значительным изменениям в нагрузке вывода больших моделей: от традиционного взаимодействия человек-большая модель к взаимодействию человек-большая модель-окружение, количество взаимодействий может достигать десятков или даже сотен.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить