Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Эксперты призывают проявлять осторожность при разработке сознательных систем ИИ
Более 100 экспертов по искусственному интеллекту, среди них сэр Стивен Фрай, призвали к ответственным исследованиям сознания в ИИ. Они подчеркивают необходимость предотвращать возможные страдания в системах ИИ, если те достигнут самосознания.
Пять руководящих принципов исследований сознания ИИ
Подписанты предлагают пять принципов, чтобы направлять этичное развитие сознательных систем ИИ:
Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались на переднем плане.
Потенциальные риски сознательного ИИ
Сопроводительная исследовательская работа подчеркивает возможность того, что в ближайшем будущем системы ИИ могут быть разработаны так, чтобы обладать сознанием, либо казаться, что они обладают сознанием. Это вызывает опасения по поводу этичного обращения с такими системами.
Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных сущностей, способных испытывать страдания.
В статье также рассматривается задача определения сознания в системах ИИ, при этом признаются продолжающиеся дискуссии и неопределенности. Она подчеркивает важность установления руководящих принципов, чтобы предотвратить непреднамеренное создание сознательных сущностей.
Узнайте о главных новостях и событиях в финтехе!
Подпишитесь на рассылку FinTech Weekly
Этические соображения и будущие последствия
Если система ИИ признается “моральным пациентом” — сущностью, которая имеет моральное значение сама по себе — возникают этические вопросы о ее обращении.
Например, будет ли деактивация такого ИИ сопоставима с причинением вреда разумному существу? Эти соображения подчеркивают необходимость этических рамок, которые будут направлять развитие ИИ.
Статья и письмо были организованы Conscium — исследовательской организацией, соучредителем которой является главный директор по ИИ WPP Дэниел Халм. Conscium сосредоточена на углублении понимания того, как создавать безопасный ИИ, который приносит пользу человечеству.
Мнения экспертов о сенсорности ИИ
Вопрос о том, сможет ли ИИ достичь сознания, является предметом дискуссий среди экспертов.
В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя нынешние системы ИИ не являются сенситивными, существует вероятность, что в будущем они могут стать таковыми. Он отметил, что философы пока не пришли к единому определению сознания, но потенциальная возможность того, что ИИ разовьет самосознание, остается темой для рассмотрения.
Заключение
Перспектива разработки сознательных систем требует тщательного этического рассмотрения. Открытое письмо и сопровождающая исследовательская работа служат призывом к действию для сообщества ИИ уделять приоритет ответственным исследованиям и практикам разработки.
Следуя предложенным принципам, исследователи и разработчики смогут работать над тем, чтобы достижения в области ИИ были получены этично — с фокусом на предотвращение возможных страданий в сознательных системах ИИ.