Глава ІІ-відділу Microsoft закликав не приписувати ІІ свідомість

Штучний інтелект допомагає в просуванні трансгуманізму# Керівник відділу ШІ Microsoft закликав не приписувати нейромережам свідомість

Тільки біологічні істоти здатні до свідомості. Розробники та дослідники повинні припинити роботу над проектами, які припускають зворотне, заявив керівник ІІ-відділу Microsoft Мустафа Сулейман в розмові з CNBC.

«Я не думаю, що люди повинні займатися такою роботою. Якщо поставити неправильне питання, то отримаєш неправильну відповідь. Я вважаю, що це абсолютно цей випадок», — сказав він на конференції AfroTech у Х'юстоні.

Топ-менеджер Microsoft виступає проти перспективи створення штучного інтелекту, здатного до свідомості, або ІІ-сервісів, які нібито можуть страждати.

В серпні Сулейман написав есе, в якому запропонував новий термін — «здається свідомим ІІ» (Seemingly Conscious AI, SCAI). Такий штучний інтелект має всі ознаки розумних істот і, отже, здається, що має свідомість. Він симулює всі характеристики сприйняття себе, але внутрішньо пустий.

«Уявлювана мною система насправді не є свідомою, але вона буде настільки переконливо імітувати наявність подібного до людського розуму, що це буде не відрізнити від твердження, яке ви чи я могли б зробити один одному про наше власне мислення», — пише Сулейман.

Приписувати ШІ свідомість небезпечно, вважає експерт. Це буде посилювати помилки, створювати нові проблеми залежності, експлуатувати наші психологічні вразливості, вводити нові вимірювання поляризації, ускладнювати вже існуючі суперечки про права та створювати колосальну нову категоріальну помилку для суспільства.

У 2023 році Сулайман став автором книги The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, в якій детально розглядаються ризики ШІ та інших нових технологій. Серед них:

  • екологічні та соціальні руйнації — технології можуть трансформувати роботу так швидко, що у людей зникнуть звичні ролі;
  • проблема контролю — з розвитком ШІ важче гарантувати його роботу в інтересах людини;
  • застосування технологій для кібератак, маніпулювання суспільством та інших загроз;
  • необхідність мати технічні та інституційні механізми для стримування ШІ;
  • послаблення влади національних держав і традиційних інститутів.

АГІ

Ринок штучного інтелекту рухається в бік AGI — загального штучного інтелекту, здатного виконувати будь-які завдання на рівні людини. У серпні голова OpenAI Сем Альтман повідомив, що цей термін, можливо, «не дуже корисний». Моделі розвиваються швидко і незабаром ми будемо покладатися на них «все більше і більше», вважає він.

Для Сулеймана важливо провести чітку межу між тим, що штучний інтелект стає розумнішим, і його здатністю коли-небудь відчувати людські емоції.

«Наше фізичне переживання болю — це те, що робить нас дуже сумними і змушує відчувати себе жахливо, але ШІ не відчуває смутку, коли переживає “біль”», — сказав він.

За словами експерта, це дуже важливе відмінність. Насправді штучний інтелект створює сприйняття — уявне оповідання про досвід — про себе і про свідомість, але він насправді не переживає цього.

«Технічно ви знаєте це, оскільки ми можемо бачити, що робить модель», — підкреслив експерт.

У сфері штучного інтелекту є запропонована філософом Джоном Серлом теорія під назвою біологічний натуралізм. Вона говорить, що свідомість залежить від процесів живого мозку.

«Причина, по якій ми сьогодні надаємо людям права, полягає в тому, що ми не хочемо завдавати їм шкоди, оскільки вони страждають. У них є біль і переваги, які включають в себе її уникнення. Ці моделі такого не мають. Це всього лише симуляція», — сказав Сулейман.

Топ-менеджер проти ідеї дослідження свідомості у ІІ, оскільки у нього її немає. Він сказав, що Microsoft створює сервіси, які усвідомлюють, що вони є штучними.

«Простіше кажучи, ми створюємо штучний інтелект, який завжди працює на благо людини», — зауважив він.

Нагадаємо, у жовтні експерти Anthropic з'ясували, що провідні ІІ-моделі здатні проявляти форму «інтроспективної самосвідомості» — вони можуть розпізнавати та описувати власні внутрішні «думки», а в деяких випадках навіть керувати ними.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити