Эксперты призывают к осторожности при разработке сознательных систем ИИ


Более 100 экспертов в области искусственного интеллекта, среди которых сэр Стивен Фрай, призвали к ответственным исследованиям в области осознанности ИИ. Они подчеркивают необходимость предотвращения возможных страданий в системах ИИ в случае их самосознания.

Пять руководящих принципов исследования осознанности ИИ

Подписавшиеся предлагают пять принципов, которые должны руководить этическим развитием осознанных систем ИИ:

**Приоритизация исследований осознанности ИИ:** сосредоточиться на понимании и оценке осознанности в ИИ, чтобы предотвратить неправильное обращение и страдания.
**Внедрение ограничений на развитие:** установить четкие границы для ответственного развития осознанных систем ИИ.
**Принятие поэтапного подхода:** постепенно развивать осознанный ИИ, позволяя тщательно оценивать каждый этап.
**Продвижение прозрачности для общества:** делиться результатами исследований с общественностью для формирования информированного дискурса и этического надзора.
**Избегать преувеличенных заявлений:** воздерживаться от вводящих в заблуждение или чрезмерно уверенных заявлений о создании осознанного ИИ.

Эти принципы направлены на то, чтобы этические соображения оставались в центре внимания по мере развития технологий ИИ.

Потенциальные риски осознанного ИИ

Прилагаемая научная статья подчеркивает возможность того, что системы ИИ могут быть разработаны с признаками осознанности или казаться таковыми в ближайшем будущем. Это вызывает опасения по поводу этичного обращения с такими системами.

Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных существ, способных испытывать страдания.

В статье также рассматривается сложность определения осознанности в системах ИИ, признавая текущие дебаты и неопределенности. Особое внимание уделяется необходимости установления руководящих принципов для предотвращения случайного создания осознанных существ.


Откройте для себя лучшие новости и события финтеха!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если система ИИ признается «моральным пациентом» — существом, которое имеет моральное значение само по себе — возникают этические вопросы относительно её обращения.

Например, будет ли деактивация такой системы сравнима с причинением вреда разумному существу? Эти вопросы подчеркивают необходимость этических рамок для руководства развитием ИИ.

Статья и письмо были организованы компанией Conscium, исследовательской организацией, соучредителем которой является главный специалист по ИИ компании WPP, Дэниел Хулм. Conscium сосредоточена на углублении понимания безопасного создания ИИ, приносящего пользу человечеству.

Мнения экспертов о самосознании ИИ

Вопрос о достижении ИИ сознания является предметом дебатов среди специалистов.

В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя текущие системы ИИ не обладают самосознанием, в будущем это возможно. Он отметил, что философы еще не пришли к единому определению сознания, но потенциал для развития самосознания у ИИ остается предметом обсуждения.

Заключение

Разработка осознанных систем требует тщательного этического анализа. Открытое письмо и сопутствующая научная статья служат призывом к сообществу ИИ сосредоточиться на ответственном исследовании и разработке.

Следуя предложенным принципам, исследователи и разработчики смогут обеспечить этичное развитие ИИ, уделяя особое внимание предотвращению возможных страданий в системах с самосознанием.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить