Когда речь заходит о развертывании языковых моделей в реальных сценариях, аппаратные ресурсы и баланс производительности важны не меньше, чем сырая мощность.
OSS120B обеспечивает впечатляющее локальное рассуждение, но стоит он дорого — для его плавной работы требуется примерно 120 ГБ оперативной памяти. Это не очень портативно. OSS20B достигает оптимального баланса для большинства случаев использования; вы получаете стабильную производительность без необходимости иметь дата-центр у себя в подвале.
Mistral-7B отлично подходит для диалоговых задач, хотя у него возникают трудности с основанием документов и склонностью к галлюцинациям, если ему подают информацию, на которой он явно не обучался. Llama, честно? Он кажется менее впечатляющим по сравнению с новыми открытыми альтернативами аналогичных размеров. Экосистема развивается быстро, и некоторые новые игроки делают это лучше.
Настоящий урок: размер не всё. Контекст, качество обучающих данных и практическая эффективность важнее, чем кажется.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
3
Репост
Поделиться
комментарий
0/400
MEVictim
· 4ч назад
OSS120B работает 120 ГБ оперативной памяти? Проснись, дружище, это не локальное развертывание, а локальный дата-центр
Или аромат OSS20B — оптимальное решение для реальных производственных условий
Мистраль. Эта проблема с галлюцинациями действительно раздражает... Как только вы подаёте незнакомые данные, вы начинаете придумывать истории
Ламу действительно раздавили новички, а экология была очень жестока
Тем не менее, размер модели на самом деле не так важен, качество обучающих данных > всё остальное, что и есть главная проблема
Посмотреть ОригиналОтветить0
GasFeeCrybaby
· 4ч назад
120 ГБ оперативной памяти работает на 120 Б? Чей это сервер, мой сломанный компьютер прямо взломан, ха-ха.
OSS20B действительно потрясающий, экономически эффективный. Другими словами, Лама действительно немного потянута, и новая штука убивает её за секунды
Это правда, это не просто куча параметров
Посмотреть ОригиналОтветить0
StealthDeployer
· 4ч назад
120 ГБ с локальной моделью? Смеюсь, мне придётся продавать сломанный компьютер дома
---
OSS20B действительно ароматный, но настоящее узкое место — это качество данных
---
Llama сейчас реально тянет, и новые модели всё уходят
---
Не смотрите только на количество параметров, настоящая продуктивность — это окно контекста и эффективность вывода
---
Mistral раздражается из-за галлюцинационных проблем, а эта штука не подходит для производства и охраны окружающей среды
---
Кто оплатит 120 ГБ — если говорить прямо, малые и средние команды не могут позволить себе играть
---
Вот почему я сейчас рассматриваю решения для квантования, которые могут сэкономить половину памяти
Когда речь заходит о развертывании языковых моделей в реальных сценариях, аппаратные ресурсы и баланс производительности важны не меньше, чем сырая мощность.
OSS120B обеспечивает впечатляющее локальное рассуждение, но стоит он дорого — для его плавной работы требуется примерно 120 ГБ оперативной памяти. Это не очень портативно. OSS20B достигает оптимального баланса для большинства случаев использования; вы получаете стабильную производительность без необходимости иметь дата-центр у себя в подвале.
Mistral-7B отлично подходит для диалоговых задач, хотя у него возникают трудности с основанием документов и склонностью к галлюцинациям, если ему подают информацию, на которой он явно не обучался. Llama, честно? Он кажется менее впечатляющим по сравнению с новыми открытыми альтернативами аналогичных размеров. Экосистема развивается быстро, и некоторые новые игроки делают это лучше.
Настоящий урок: размер не всё. Контекст, качество обучающих данных и практическая эффективность важнее, чем кажется.