Эксперты призывают проявлять осторожность при разработке сознательных систем ИИ


Более 100 экспертов по искусственному интеллекту, среди них Сэр Стивен Фрай, призвали к ответственным исследованиям в области ИИ-сознания. Они подчеркивают необходимость предотвращения потенциальных страданий в ИИ-системах, если они достигнут самосознания.

Пять руководящих принципов для исследований ИИ-сознания

Подписанты предлагают пять принципов, чтобы направлять этичное развитие сознательных систем ИИ:

2.      

**Сделать приоритетом исследования ИИ-сознания:** Сосредоточьтесь на понимании и оценке сознания в ИИ, чтобы предотвратить злоупотребления и страдания.

    
4.      

**Ввести ограничения на разработку:** Установите четкие рамки, чтобы сознательные ИИ-системы разрабатывались ответственно.

    
6.      

**Применить поэтапный подход:** Развивайте сознательные ИИ-системы постепенно, позволяя проводить тщательную оценку на каждом этапе.

    
8.      

**Содействовать публичной прозрачности:** Публикуйте результаты исследований для общества, чтобы способствовать осознанному обсуждению и этическому надзору.

    
10.      
 
 **Избегать преувеличенных заявлений:** Не допускайте вводящих в заблуждение или чрезмерно уверенных утверждений о создании сознательного ИИ.

Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались на переднем плане.

Потенциальные риски сознательного ИИ

Приложенная исследовательская статья подчеркивает возможность того, что ИИ-системы в ближайшем будущем могут быть разработаны как обладающие сознанием, или выглядящие так, будто обладают сознанием. Это вызывает опасения относительно этичного обращения с такими системами.

Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных сущностей, способных испытывать страдания.

Статья также затрагивает проблему определения сознания в ИИ-системах, признавая продолжающиеся дискуссии и неопределенности. Она подчеркивает важность установления руководящих принципов, чтобы предотвратить непреднамеренное создание сознательных сущностей.


Откройте для себя лучшие новости и события в финтехе!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если ИИ-система признается “моральным пациентом” — сущностью, которая имеет значение с моральной точки зрения сама по себе, — возникают этические вопросы о ее обращении.

Например, будет ли деактивация такого ИИ сопоставима с причинением вреда разумному существу? Эти соображения подчеркивают необходимость этических рамок, которые будут направлять разработку ИИ.

Статья и письмо были организованы Conscium — исследовательской организацией, соучредителем которой является главный специалист по ИИ в WPP, Дэниел Халм. Conscium сосредоточена на углублении понимания того, как строить безопасный ИИ, который приносит пользу человечеству.

Мнения экспертов о «разумности» ИИ

Вопрос о том, сможет ли ИИ достигнуть сознания, был темой дискуссий среди экспертов.

В 2023 году Сэр Демис Хассабис, руководитель программы ИИ в Google, заявил, что хотя текущие ИИ-системы не являются разумными, существует возможность, что в будущем они такими станут. Он отметил, что философы пока не пришли к окончательному определению сознания, но потенциальная возможность того, что ИИ разовьет самосознание, остается предметом рассмотрения.

Заключение

Перспектива разработки сознательных систем требует тщательного этического рассмотрения. Открытое письмо и сопроводительная исследовательская статья служат призывом к действию для сообщества ИИ: уделить приоритет ответственным исследованиям и практикам разработки.

Следуя предложенным принципам, исследователи и разработчики могут двигаться к тому, чтобы достижения в ИИ были достигнуты этично — с акцентом на предотвращение потенциальных страданий в сознательных ИИ-системах.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить