Эксперты призывают проявлять осторожность при разработке сознательных систем ИИ


Более 100 экспертов по искусственному интеллекту, среди них сэр Стивен Фрай, призвали к ответственным исследованиям сознания в ИИ. Они подчеркивают необходимость предотвращать возможные страдания в системах ИИ, если те достигнут самосознания.

Пять руководящих принципов исследований сознания ИИ

Подписанты предлагают пять принципов, чтобы направлять этичное развитие сознательных систем ИИ:

2.      

**Сделайте приоритетом исследования сознания ИИ:** Сфокусируйтесь на понимании и оценке сознания в ИИ, чтобы предотвращать жестокое обращение и страдания.

    
4.      

**Внедряйте ограничения в разработку:** Устанавливайте четкие границы, чтобы сознательные системы ИИ развивались ответственно.

    
6.      

**Применяйте поэтапный подход:** Двигайтесь постепенно в разработке сознательного ИИ, позволяя проводить тщательную оценку на каждом этапе.

    
8.      

**Поощряйте публичную прозрачность:** Делитесь результатами исследований с общественностью, чтобы способствовать информированному обсуждению и этическому надзору.

    
10.      
 
 **Избегайте преувеличенных заявлений:** Воздерживайтесь от введения в заблуждение или излишне уверенных утверждений о создании сознательного ИИ.

Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались на переднем плане.

Потенциальные риски сознательного ИИ

Сопроводительная исследовательская работа подчеркивает возможность того, что в ближайшем будущем системы ИИ могут быть разработаны так, чтобы обладать сознанием, либо казаться, что они обладают сознанием. Это вызывает опасения по поводу этичного обращения с такими системами.

Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных сущностей, способных испытывать страдания.

В статье также рассматривается задача определения сознания в системах ИИ, при этом признаются продолжающиеся дискуссии и неопределенности. Она подчеркивает важность установления руководящих принципов, чтобы предотвратить непреднамеренное создание сознательных сущностей.


Узнайте о главных новостях и событиях в финтехе!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если система ИИ признается “моральным пациентом” — сущностью, которая имеет моральное значение сама по себе — возникают этические вопросы о ее обращении.

Например, будет ли деактивация такого ИИ сопоставима с причинением вреда разумному существу? Эти соображения подчеркивают необходимость этических рамок, которые будут направлять развитие ИИ.

Статья и письмо были организованы Conscium — исследовательской организацией, соучредителем которой является главный директор по ИИ WPP Дэниел Халм. Conscium сосредоточена на углублении понимания того, как создавать безопасный ИИ, который приносит пользу человечеству.

Мнения экспертов о сенсорности ИИ

Вопрос о том, сможет ли ИИ достичь сознания, является предметом дискуссий среди экспертов.

В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя нынешние системы ИИ не являются сенситивными, существует вероятность, что в будущем они могут стать таковыми. Он отметил, что философы пока не пришли к единому определению сознания, но потенциальная возможность того, что ИИ разовьет самосознание, остается темой для рассмотрения.

Заключение

Перспектива разработки сознательных систем требует тщательного этического рассмотрения. Открытое письмо и сопровождающая исследовательская работа служат призывом к действию для сообщества ИИ уделять приоритет ответственным исследованиям и практикам разработки.

Следуя предложенным принципам, исследователи и разработчики смогут работать над тем, чтобы достижения в области ИИ были получены этично — с фокусом на предотвращение возможных страданий в сознательных системах ИИ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить