Когда речь заходит о развертывании языковых моделей в реальных сценариях, аппаратные ресурсы и баланс производительности важны не меньше, чем сырая мощность.



OSS120B обеспечивает впечатляющее локальное рассуждение, но стоит он дорого — для его плавной работы требуется примерно 120 ГБ оперативной памяти. Это не очень портативно. OSS20B достигает оптимального баланса для большинства случаев использования; вы получаете стабильную производительность без необходимости иметь дата-центр у себя в подвале.

Mistral-7B отлично подходит для диалоговых задач, хотя у него возникают трудности с основанием документов и склонностью к галлюцинациям, если ему подают информацию, на которой он явно не обучался. Llama, честно? Он кажется менее впечатляющим по сравнению с новыми открытыми альтернативами аналогичных размеров. Экосистема развивается быстро, и некоторые новые игроки делают это лучше.

Настоящий урок: размер не всё. Контекст, качество обучающих данных и практическая эффективность важнее, чем кажется.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
MEVictimvip
· 4ч назад
OSS120B работает 120 ГБ оперативной памяти? Проснись, дружище, это не локальное развертывание, а локальный дата-центр Или аромат OSS20B — оптимальное решение для реальных производственных условий Мистраль. Эта проблема с галлюцинациями действительно раздражает... Как только вы подаёте незнакомые данные, вы начинаете придумывать истории Ламу действительно раздавили новички, а экология была очень жестока Тем не менее, размер модели на самом деле не так важен, качество обучающих данных > всё остальное, что и есть главная проблема
Посмотреть ОригиналОтветить0
GasFeeCrybabyvip
· 4ч назад
120 ГБ оперативной памяти работает на 120 Б? Чей это сервер, мой сломанный компьютер прямо взломан, ха-ха. OSS20B действительно потрясающий, экономически эффективный. Другими словами, Лама действительно немного потянута, и новая штука убивает её за секунды Это правда, это не просто куча параметров
Посмотреть ОригиналОтветить0
StealthDeployervip
· 4ч назад
120 ГБ с локальной моделью? Смеюсь, мне придётся продавать сломанный компьютер дома --- OSS20B действительно ароматный, но настоящее узкое место — это качество данных --- Llama сейчас реально тянет, и новые модели всё уходят --- Не смотрите только на количество параметров, настоящая продуктивность — это окно контекста и эффективность вывода --- Mistral раздражается из-за галлюцинационных проблем, а эта штука не подходит для производства и охраны окружающей среды --- Кто оплатит 120 ГБ — если говорить прямо, малые и средние команды не могут позволить себе играть --- Вот почему я сейчас рассматриваю решения для квантования, которые могут сэкономить половину памяти
Посмотреть ОригиналОтветить0
  • Закрепить