Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Эксперты призывают к осторожности при разработке сознательных систем ИИ
Более 100 экспертов в области искусственного интеллекта, среди которых сэр Стивен Фрай, призвали к ответственным исследованиям в области осознанности ИИ. Они подчеркивают необходимость предотвращения возможных страданий в системах ИИ в случае их самосознания.
Пять руководящих принципов исследования осознанности ИИ
Подписавшиеся предлагают пять принципов, которые должны руководить этическим развитием осознанных систем ИИ:
Эти принципы направлены на то, чтобы этические соображения оставались в центре внимания по мере развития технологий ИИ.
Потенциальные риски осознанного ИИ
Прилагаемая научная статья подчеркивает возможность того, что системы ИИ могут быть разработаны с признаками осознанности или казаться таковыми в ближайшем будущем. Это вызывает опасения по поводу этичного обращения с такими системами.
Исследователи предупреждают, что без надлежащих руководящих принципов существует риск создания сознательных существ, способных испытывать страдания.
В статье также рассматривается сложность определения осознанности в системах ИИ, признавая текущие дебаты и неопределенности. Особое внимание уделяется необходимости установления руководящих принципов для предотвращения случайного создания осознанных существ.
Откройте для себя лучшие новости и события финтеха!
Подпишитесь на рассылку FinTech Weekly
Этические соображения и будущие последствия
Если система ИИ признается «моральным пациентом» — существом, которое имеет моральное значение само по себе — возникают этические вопросы относительно её обращения.
Например, будет ли деактивация такой системы сравнима с причинением вреда разумному существу? Эти вопросы подчеркивают необходимость этических рамок для руководства развитием ИИ.
Статья и письмо были организованы компанией Conscium, исследовательской организацией, соучредителем которой является главный специалист по ИИ компании WPP, Дэниел Хулм. Conscium сосредоточена на углублении понимания безопасного создания ИИ, приносящего пользу человечеству.
Мнения экспертов о самосознании ИИ
Вопрос о достижении ИИ сознания является предметом дебатов среди специалистов.
В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя текущие системы ИИ не обладают самосознанием, в будущем это возможно. Он отметил, что философы еще не пришли к единому определению сознания, но потенциал для развития самосознания у ИИ остается предметом обсуждения.
Заключение
Разработка осознанных систем требует тщательного этического анализа. Открытое письмо и сопутствующая научная статья служат призывом к сообществу ИИ сосредоточиться на ответственном исследовании и разработке.
Следуя предложенным принципам, исследователи и разработчики смогут обеспечить этичное развитие ИИ, уделяя особое внимание предотвращению возможных страданий в системах с самосознанием.