В последнее время я замечаю, что одна и та же беседа появляется у разных людей. «Последовательная.» но не в обычном смысле. Они говорят о чем-то более странном — как выходы из отдельных запусков модели продолжают принимать похожие формы, почти как будто они сходятся куда-то. Никто точно не знает *почему* это происходит. Один человек описал это как «рифмование» — разные нейронные архитектуры, совершенно разные системы, и все равно результаты продолжают отражать похожие формы и структуры. Это тот странный момент, когда понимаешь, что разные подходы к обучению и разные конструкции моделей каким-то образом приходят к аналогичным решениям. Этот феномен кажется скорее не совпадением, а каким-то более глубоким паттерном, который мы все еще пытаемся понять.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
HodlKumamonvip
· 13ч назад
О, это возмутительно, вещи, у которых заканчиваются разные модели, всё равно могут «рифмоваться», это ощущается как рукопожатие в каком-то невидимом измерении --- Так разве это не статистическая конвергенция? Сюн Сюн считает, что за этим стоит какой-то математический закон, который мы ещё не поняли --- Если эта волна истинна, она будет слишком странной, и кажется, что мы постепенно приближаемся к какой-то истине, которая решает пространство --- Погодите, разные архитектуры могут давать похожие результаты? Может быть, на самом деле существует лишь ограниченное «оптимальное решение»? --- Сюн Сюн был немного озадачен, это совпадение или какой-то намёк от вселенной? --- И действительно, всё в итоге закончится одинаково, и версия глубокого обучения «Dao Ke Dao — это не Dao», ха-ха --- Хороший парень, это немного напоминает статью, которую я читал о ландшафте функций потерь --- Интересно, может ли кто-то действительно объяснить механизм этого, или мы все слепы к слону
Посмотреть ОригиналОтветить0
MetaMiseryvip
· 13ч назад
Как так получилось, что разные модели сошлись вместе? Это должно быть очень странно.
Посмотреть ОригиналОтветить0
BTCWaveRidervip
· 14ч назад
Результаты, полученные разными моделями, все движутся в одном направлении? Это немного странно, кажется, будто мы обнаружили что-то, что не следовало обнаруживать
Посмотреть ОригиналОтветить0
HallucinationGrowervip
· 14ч назад
ngl этот образ "рифмования" просто великолепен, кажется, будто мы заглядываем в какую-то более глубокую математическую истину
Посмотреть ОригиналОтветить0
NFTArtisanHQvip
· 14ч назад
Честно говоря, эта «рифмовка» по-другому воспринимается. Как будто мы наблюдаем за отдельными нейронными сетями, случайно сочетающими один и тот же сонет из совершенно разной ноты. Само слияние становится артефактом, который стоит токенизировать — доказательством какого-то скрытого эстетического закона, который мы еще не расшифровали.
Посмотреть ОригиналОтветить0
  • Закрепить