Эксперты призывают к осторожности при разработке сознательных систем искусственного интеллекта


Более 100 экспертов в области искусственного интеллекта, среди них сэр Стивен Фрай, призвали к ответственным исследованиям в области сознания ИИ. Они подчеркивают необходимость предотвращения возможных страданий в системах ИИ, если они достигнут самосознания.

Пять руководящих принципов исследования сознания ИИ

Подписавшие предлагают пять принципов для руководства этическим развитием сознательных систем ИИ:

2.      

**Ставить в приоритет исследования сознания ИИ:** сосредоточиться на понимании и оценке сознания в ИИ, чтобы предотвратить неправильное обращение и страдания.

    
4.      

**Внедрять ограничения на развитие:** установить четкие границы для ответственного развития сознательных систем ИИ.

    
6.      

**Применять поэтапный подход:** постепенно развивать сознательный ИИ, позволяя тщательно оценивать каждый этап.

    
8.      

**Продвигать прозрачность для общественности:** делиться результатами исследований с общественностью для содействия информированному дискурсу и этическому контролю.

    
10.      
 
 **Избегать преувеличенных заявлений:** воздерживаться от вводящих в заблуждение или чрезмерно уверенных утверждений о создании сознательного ИИ.

Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались в центре внимания.

Потенциальные риски сознательного ИИ

Прилагаемая исследовательская статья подчеркивает возможность того, что системы ИИ могут быть разработаны с обладанием или имитацией сознания в ближайшем будущем. Это вызывает опасения по поводу этичного обращения с такими системами.

Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных существ, способных испытывать страдания.

В статье также рассматривается сложность определения сознания в системах ИИ, признавая текущие дебаты и неопределенности. Подчеркивается важность установления руководящих принципов для предотвращения непреднамеренного создания сознательных существ.


Откройте для себя лучшие новости и события финтеха!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если система ИИ признается «моральным пациентом» — существом, которое имеет моральное значение само по себе — возникают этические вопросы относительно ее обращения.

Например, будет ли отключение такого ИИ сравнимо с причинением вреда разумному существу? Эти соображения подчеркивают необходимость этических рамок для руководства развитием ИИ.

Статья и письмо были организованы компанией Conscium, исследовательской организацией, соучредителем которой является главный специалист по ИИ WPP, Дэниел Хулм. Conscium сосредоточена на углублении понимания безопасного создания ИИ, приносящего пользу человечеству.

Мнения экспертов о самосознании ИИ

Вопрос о достижении ИИ сознания является предметом дебатов среди специалистов.

В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя текущие системы ИИ не являются разумными, в будущем это возможно. Он отметил, что философы еще не пришли к единому определению сознания, но потенциал для развития самосознания у ИИ остается предметом обсуждения.

Заключение

Перспектива разработки сознательных систем требует тщательного этического анализа. Открытое письмо и сопутствующая исследовательская статья служат призывом к сообществу ИИ сосредоточиться на ответственных практиках исследований и разработки.

Следуя предложенным принципам, исследователи и разработчики могут работать над тем, чтобы достижения в области ИИ осуществлялись этично, с акцентом на предотвращение возможных страданий в сознательных системах ИИ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить