Проект Delphi: екстраполяція у 300 разів для тренування великої передбачувальної моделі, помилка всього 0,2%

AIMPACT повідомлення, 12 травня (UTC+8), WilliamBarrHeld опублікував твіт, що представляє проект Delphi, як перший крок Marin. Цей проект передбачає попереднє навчання кількох малих моделей за допомогою однієї формули, а потім екстраполяцію у 300 разів, успішно передбачивши тренувальний запуск з 25 мільярдами параметрів і 6000 мільярдами токенів, з похибкою всього 0,2%. Delphi має на меті досягти передбачуваного масштабування для тренування кращих відкритих моделей. (Джерело: InFoQ)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити