Эксперты призывают проявлять осторожность при разработке сознательных систем ИИ


Более 100 экспертов по искусственному интеллекту, среди них Сэр Стивен Фрай, призвали к ответственным исследованиям сознания ИИ. Они подчеркивают необходимость предотвращать потенциальные страдания в системах ИИ, если те достигнут самосознания.

Пять руководящих принципов для исследований сознания ИИ

Подписанты предлагают пять принципов, чтобы направлять этическое развитие сознающих систем ИИ:

2.      

**Сделать приоритетом исследования сознания ИИ:** Сосредоточьтесь на понимании и оценке сознания в ИИ, чтобы предотвратить жестокое обращение и страдания.

    
4.      

**Внедрить ограничения на разработку:** Установите четкие границы, чтобы гарантировать ответственное развитие сознающих систем ИИ.

    
6.      

**Применять поэтапный подход:** Продвигайтесь постепенно в разработке сознательных ИИ, позволяя тщательно оценивать каждый этап.

    
8.      

**Содействовать публичной прозрачности:** Публикуйте результаты исследований для широкой аудитории, чтобы способствовать осознанному обсуждению и этическому надзору.

    
10.      
 
**Избегать чрезмерно громких заявлений:** Воздерживайтесь от введения в заблуждение или излишне уверенных утверждений о создании сознательного ИИ.

Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались на первом плане.

Потенциальные риски сознательного ИИ

Приложенная исследовательская статья подчеркивает возможность того, что системы ИИ могут быть разработаны в ближайшем будущем так, чтобы они обладали сознанием, или создавалось впечатление, что они им обладают. Это вызывает опасения относительно этичного обращения с такими системами.

Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознающих сущностей, способных испытывать страдания.

В статье также рассматривается задача определения сознания в системах ИИ, признавая текущие споры и неопределенности. В ней подчеркивается важность разработки руководящих принципов, чтобы предотвратить непреднамеренное создание сознающих сущностей.


Откройте для себя лучшие новости и события в сфере финтеха!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если система ИИ признается “моральным пациентом” — сущностью, которая имеет значение в моральном плане сама по себе — возникают этические вопросы о том, как ее следует обрабатывать.

Например, будет ли отключение такого ИИ сопоставимо с причинением вреда разумному существу? Эти соображения подчеркивают необходимость этических рамок для управления развитием ИИ.

Статья и письмо были организованы Conscium, исследовательской организацией, соучредителем которой является главный директор по ИИ WPP, Даниэль Халм. Conscium занимается углублением понимания того, как строить безопасный ИИ, который приносит пользу человечеству.

Взгляды экспертов на ИИ и вменяемость

Вопрос о том, сможет ли ИИ достигнуть сознания, является темой дискуссий среди экспертов.

В 2023 году сэр Дэмиc Хассабис, руководитель программы ИИ в Google, заявил, что хотя нынешние системы ИИ не являются вменяемыми, существует вероятность, что в будущем они могут стать таковыми. Он отметил, что философам пока не удалось прийти к определению сознания, но возможность того, что ИИ разовьет самосознание, остается предметом рассмотрения.

Заключение

Перспектива разработки сознательных систем требует тщательного этического рассмотрения. Открытое письмо и сопроводительная исследовательская статья служат призывом к действию для сообщества ИИ — уделять приоритет ответственным исследованиям и практикам разработки.

Придерживаясь предложенных принципов, исследователи и разработчики могут работать над тем, чтобы достижения в области ИИ были получены этично, с упором на предотвращение потенциальных страданий в сознательных системах ИИ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить