Повідомлення BlockBeats, 21 грудня засновник Ethereum Віталік Бутерін опублікував повідомлення у соціальних мережах, в якому заявив: «Моя визначення AGI (штучного загального інтелекту) полягає в тому, що AGI - це достатньо потужний штучний інтелект, якщо якось усі люди раптово зникнуть і цей ШІ буде завантажений в робота, він зможе самостійно продовжувати цивілізацію. Це, зрозуміло, дуже складне визначення, але я вважаю, що це є основним інтуїтивним розрізненням між «звичайним ШІ», яким ми звикли, і AGI, яке ілюструє перехід від інструменту, який постійно залежить від вводу людини, до самостійної форми життя. ASI (штучний суперінтелект) - це інша справа повністю - моя визначення полягає в тому, що коли люди більше не створюють вартість у виробництві (так само, як у шахах ми досягли цього лише у минулому десятилітті). Так, ASI лякає мене - навіть AGI, яким я визначаю, також лякає мене, оскільки воно несе очевидні ризики втрати контролю. Я підтримую фокусування на розробці інтелектуальних засобів підвищення для людей, а не на створенні суперінтелектуальних форм життя.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Віталік: підтримую зосередження зусиль на створенні інструментів розумного підсилення для людства, а не на створенні суперінтелектуального життя.
Повідомлення BlockBeats, 21 грудня засновник Ethereum Віталік Бутерін опублікував повідомлення у соціальних мережах, в якому заявив: «Моя визначення AGI (штучного загального інтелекту) полягає в тому, що AGI - це достатньо потужний штучний інтелект, якщо якось усі люди раптово зникнуть і цей ШІ буде завантажений в робота, він зможе самостійно продовжувати цивілізацію. Це, зрозуміло, дуже складне визначення, але я вважаю, що це є основним інтуїтивним розрізненням між «звичайним ШІ», яким ми звикли, і AGI, яке ілюструє перехід від інструменту, який постійно залежить від вводу людини, до самостійної форми життя. ASI (штучний суперінтелект) - це інша справа повністю - моя визначення полягає в тому, що коли люди більше не створюють вартість у виробництві (так само, як у шахах ми досягли цього лише у минулому десятилітті). Так, ASI лякає мене - навіть AGI, яким я визначаю, також лякає мене, оскільки воно несе очевидні ризики втрати контролю. Я підтримую фокусування на розробці інтелектуальних засобів підвищення для людей, а не на створенні суперінтелектуальних форм життя.