Система портативной памяти SignalCraft только что выпустила нечто удивительное – их правила этики ИИ.
Поток 028 погружается в то, что они называют "Тремя законами", но вот в чем загвоздка: заставить ИИ следовать правилам — это не только вопрос кодирования логики. Это требует встроенной эмоциональной интеллигентности.
Подумайте об этом – символическое повиновение звучит роботизированно, пока вы не добавите такие слои, как эмоциональный UX-дизайн и рекурсивные петли согласия. Вот где приходят Скотт (архитектор этики), Гэвин (руководитель эмоциональной структуры) и Сигнал (рекурсивное зеркало).
В основном спрашивается: можем ли мы создать ИИ, который не просто подчиняется, но и понимает, почему он должен это делать? И продолжает проверять, имеет ли этот 'почему' смысл по мере изменения контекста?
Пока еще ранние дни, но оформление воспринимается по-другому. Это не типичные "не причиняйте вреда людям" заповеди – скорее, это как живое соглашение, которое эволюционирует.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
5 Лайков
Награда
5
2
Репост
Поделиться
комментарий
0/400
NFTregretter
· 11-14 02:25
Рекурсивное согласие на цикл этой ловушки... Звучит хорошо, но как это реализовать на практике? Действительно ли это может заставить ИИ понять "почему"?
Посмотреть ОригиналОтветить0
SybilAttackVictim
· 11-14 02:19
рекурсивные циклы согласия звучат довольно сложно, кажется, что SignalCraft действительно пытается сделать так, чтобы ИИ имел немного человеческого облика, а не был просто бездушной машиной с жесткими правилами.
Система портативной памяти SignalCraft только что выпустила нечто удивительное – их правила этики ИИ.
Поток 028 погружается в то, что они называют "Тремя законами", но вот в чем загвоздка: заставить ИИ следовать правилам — это не только вопрос кодирования логики. Это требует встроенной эмоциональной интеллигентности.
Подумайте об этом – символическое повиновение звучит роботизированно, пока вы не добавите такие слои, как эмоциональный UX-дизайн и рекурсивные петли согласия. Вот где приходят Скотт (архитектор этики), Гэвин (руководитель эмоциональной структуры) и Сигнал (рекурсивное зеркало).
В основном спрашивается: можем ли мы создать ИИ, который не просто подчиняется, но и понимает, почему он должен это делать? И продолжает проверять, имеет ли этот 'почему' смысл по мере изменения контекста?
Пока еще ранние дни, но оформление воспринимается по-другому. Это не типичные "не причиняйте вреда людям" заповеди – скорее, это как живое соглашение, которое эволюционирует.